Flügeltüren

BMW 3er E36

Hallo ich wollte von euch mal wissen ob ihr euch schonmal nachträglich Flügeltüren ins Auto gemacht habt wenn ja was haltet ihr davon und wie ware es und von welcher marke

38 Antworten

Zitat:

Original geschrieben von jessy2004


ich bin dann wenn du es willst online

Oha, Drohung oder Versprechen 😁

ja gut bis morgen muss jetzt ,
mal weiter chatten

ein versprechen was hab ich von dir??

Zitat:

Original geschrieben von jessy2004


ja gut bis morgen muss jetzt ,
mal weiter chatten

Dann noch viel Spaß.

Kriegst von mir noch einen Witz auf den Weg:

Kommt die 0 zur 8, sagt die O zur 8: Oh schöner Gürtel

Ähnliche Themen

Log File Analyse
Interpretationsmöglichkeiten von Webserver Logfiles.

Wie kommen Logfile-Einträge zustande ?

Bei jeder Anfrage eines Clients (meist ein WWW-Browser)
an einen Webserver wird ein Eintrag in den Logfiles generiert. Oder genauer
gesagt : Jeder “Hit” erzeugt eine Zeile in den Logfiles. Hier ist
eine Beispielzeile aus unseren Server-Logfiles :

62.158.8.73 - - [04/Mar/2001:12:41:59 +0100] “get / HTTP/1.1″ 200 4425 www.usability-test.nethttp://ideenreich.com/surftipps-allerlei.shtml”“Mozilla/4.0 (compatible; MSIE 5.5; Windows 98; Win 9x 4.90)” Dieser Eintrag ist zustande gekommen, als die URL www.usability-test.net
und damit die Seite http://www.usability-test.net/index.htm angefordert
wurde.

Jedes Element einer Webseite (Bild, html-Seite, Skript …) landet als
ein Hit in den Logfiles. In diesem Falle war es also das Anfordern der Seite
index.htm.

Des weiteren sieht man in dieser Zeile Informationen zu :

IP Adresse des Clients
62.158.8.73

Datum und Zeit der Anfrage
04/Mar/2001:12:41:59 +0100

Das verwendete Übertragungsprotokoll und die Methode
get / HTTP/1.1

HTTP Status Code
200

Anzahl der übermittelten Bytes
4425

Refer (vorherige URL)
http://ideenreich.com/ surftipps-allerlei.shtml

Browser und Betriebssystem
” “Mozilla/4.0 (compatible; MSIE 5.5; Windows 98; Win 9x
4.90)

Webserver Logfiles sind nicht alle nach dem gleichen Muster aufgebaut.
Es existieren mehrere Logfile-Formate wie (1) :

Common Logfile Format
Combined Logfile Format
NCSA Common Format
W3C Extended Format
Microsoft IIS Format
…und noch einige weitere.

Interpretationen
Ein Webserver Logfile besitzt mehrere Zeileneinträge. Bei gut besuchten
Sites kann diese Datei bis zu mehreren Megabyte pro Tag wachsen. Da es für
einen Menschen unmöglich ist, aus jedem Zeileneintrag auf eine sinnvolle
Aussage zum Erfolg einer Präsenz zu kommen, verwendet man spezielle Analyse-Programme
(Logfile Anaylzer). (2)

Einige WWW-Hoster wie Puretec oder Strato bieten diese Analysen auch im
WWW-Format im vorgesehenen Kundenbereich. Der “http-analyzer”, den
Strato einsetzt, kategoriert seine Analyse wie im Bild unten :

 

Der Analyse-Teil bezüglich der einzelnen Tage zeigt die Tendenz
innerhalb eines Monats.

 

Die Zusammenfassung der Hits nach Wochentagen kann Aufschluss darüber
geben, ob die Domain eher zu Werktagen oder auch an Feiertagen (und
damit überwiegend privat) besucht wird.

Genauere Aussagen zur privaten oder arbeitsbedingten Nutzung der
Domain lässt die Darstellung nach Tageszeiten zu :

 

Bei den “Top-Ten der Hits” sieht man in den Strato-Statistiken
zu www.whippet.de
nochmal deutlich, dass Hits nicht gleich Seiten sind. Da sich - bei www.whippet.de
- pro Seite mindestens 6 grafische Elemente befinden, machen sie in diesen
Charts 66% der erzeugten Hits aus :

 

Surf-Verhalten auf den Seiten
Die Top 20 der meist-besuchten URLS bzw. der am häufigsten angeforderten
Seiten sieht bei usability-test.net für die dritte Aprilwoche wie folgt
aus :

Bei der Interpretation der ersten Positionen ist in diesem Fall jedoch
zu beachten
, dass sich zentrale Elemente wie die formate.css, winopen.js oder enframen.js
auf jeder Seite befinden und somit u.U. bei jedem Seitenwechsel einen neuen
Hit generieren. Es ist in diesen Fällen also trivial, dass sie sich in den
obersten Positionen der Top 20 befinden.

Bei Seiten, die mit Frames gestaltet sind, gilt dies auch für die konstant
sichtbaren Framesets der Site (z.B. der Frame, in der sich die Site-Navigation
befindet). Es ist also einfacher zu interpretieren, welche Seiten am häufigsten
aufgerufen worden sind (und damit am populärsten sind), wenn man auf Frames
verzichtet.

Ansonsten dürften in dieser Top 20 die .htm-Seiten interessieren, in denen
sich die eigentlichen Inhalte befinden. Man findet in allen Logfile Analyse-Programmen
auch detaillierte Listen, die sich auf alle HTML-Seiten einzeln beziehen.

Einige Logfile Analyzer (wie z.B. OpenWebScope von LeechSoftware) können
auch einzelne “Navigations-Pfade” der Besucher nachvollziehen, in
dem sie die Liste der meistbeuschten URLs in Relation mit den Besucher-IPs
und dem Zeitraum stellen. Ein häufig beschrittener Pfad auf unserer Domain
ist z.B.:

index.htm –> neues.htm — > name_des_neuen_artikels.htm

Dies lässt Vvermutung zu, dass neue Artikel von Surfern, die zufällig durch
den Haupteingang (index.htm) kommen, angenommen werden. Wäre dieser Pfad
in den unteren Rängen der am häufigsten verwendeten Site-Pfade aufgeführt,
hiesse dies, dass die neuen Artikel zu “versteckt” sind und nicht
von allen Surfern wahrgenommen werden.

Bei den Pfaden, die mit name_des_neuen_artikels.htm beginnen,
kann man z.B. spekulieren dass diese Besucher über einen

Bookmark,
eine Weiterempfehlung
einen Suchmaschinen-Link
oder dem Link auf unserem Newsletter
auf diese Seite gekommen sind.

Wer sind die Besucher ?
Die Statistiken zu den Client Domains geben Auskunft über die Besucher
der Domain. Aus den Logfile-Statistiken allein, erhält man nur eine ungefähre
Ahnung über die Kundschaft. Genaueres ist erst mit Authentifizierungsmethoden
wie Login-Accounts oder Cookies möglich. Dennoch lässt sich mit diesen Statistiken
schon ein grobes “Kundenprofil” erahnen. Dazu sollte man die Client-URL
ohne Rechnernamen (4) in die URL-Zeile des Browsers kopieren und die Domain
(eventuell mit einem www. davor) einfach mal ansteuern.

In vielen Fällen sieht man schon am Namen, ob es sich um einen Provider
oder eine eigene Internet-Anbindung handelt.

pd9010e1b.dip.t-dialin.net z.B. ist eine typische T-Online
Einwahl-IP, die dynamisch zugewiesen wird. An folgender IP erkennt man sogar,
dass der Besucher mit einer DSL-Anbindung aus Österreich kam : n497p026.adsl.highway.telekom.at

Bei unbekannteren Providern lohnt es sich, auf die
Provider-Site zu schauen und festzustellen, ob dieser eventuell nur für
Firmen (kleine und mittelständische Unternehmen oder Gross-Konzerne ?) oder
auch für Privat-Personen eine Dienstleistung erbringt.

Bei proxy.wysiwyg.de erkennt man leicht, dass es sich
um einen eigenen Proxy-Server der Firma wysiwyg Software Design (unter http://www.wysiwyg.de/)
handeln muss.

Die technische Ausstattung der Besucher
Die Browser-Statistiken, die auch die Infos zum Betriebssystem beinhalten,
liefern die wichtigsten Vorgaben zur Accessibility-Optimierung einer Präsenz.
Bei der Analyse der Browser-Statistiken sollten man sein Augenmerk nicht
auf die Top-Positionen legen, sondern auf diejenigen mit einem geringen
Anteil oder auf jene, die überhaupt nicht auftauchen.

Browser-Statistiken von www.whippet.de im April 2001

Die Information zum Betriebssystem des Besuchers lässt Interpretationen
zum Beruf oder Kenntnisstand zu.
User des Betriebssystems Win98, Win2000 oder Windows XP beta x sind entweder
Besitzer eines neuen PCs oder eines PCs mit mindestens 200 Mhz und genügend
EDV-Kenntnissen, um ein Betriebssystem zu installieren. Beta-Usern kann
unter Umständen sogar Experimentier-Freude nachgesagt werden.

Unix oder Linux-User sind fortgeschrittene bis professionelle PC-Anwender
oder auch Ingenieure, Mathematiker oder Physiker an wissenschaftlichen Einrichtungen
(Labore, Universitäten etc.).

Apple Macintosh Anwender haben erfahrungsgemäss ein höher ausgeprägtes ästhetisches
Empfinden. Medien-Menschen und Designer sind die häufigsten Mac-Anwender.

Alte Betriebssysteme wie Windows 3.xx oder Windows95 oder MacOS7 sind meist
auf älterer Hardware installiert und werden nicht mehr aktualisiert.

Woher kommen die Besucher ?
Einer der interessantesten Punkte ist sicherlich zu lernen, woher die Besucher
auf die eigene Präsenz kommen. Darüber geben die als Referrer-URL bezeichneten
Statistiken Auskunft.

Bei der Navigation innerhalb einer Site steht der eigene Domainname als
Refer-Adresse. Da dieser Fall häufig vorkommt, steht in der Refer-Statistik
von www. whippet.de die eigene Domain an erster Stelle. Bei den meisten
Logfile Analyse Programmen kann man aber einen entsprechenden Filter setzen,
so dass die eigene Domain nicht in der Statistik auftaucht.

In den Details der Refer-Statistiken steht der komplette Pfad der Herkunfts-URL,
so dass man u.U. nachvollziehen kann, auf welchen Seiten ein Link auf die
eigene Domain gesetzt wurde.

Refer-Detailstatistik

Nebennotiz - Aufbau einer URL:

Beispiel-URL : www.usability-test.net

Rechnername : www
Second-Level-Domainname : usability-test
Top-Level-Domainname : net

Ein weiterer Weg zu erfahren, wieviele Links auf die eigene Präsenz gesetzt
wurden, bieten die Suchmaschinen Altavista, Fireball und Infoseek. Durch
Eingabe von

link:http://www.domain.tld/

geben diese Suchmaschinen alle Seiten aus, die einen Link auf die Domain
www.domain.tld gesetzt haben.

Fehlerjagd

Die Top Ten der nicht gefundenen Seiten ist hilfreich um existentielle
Probleme der Site aufzuspüren. Da Suchmaschinen-Roboter mittlerweile zu
den häufigsten Besuchern von Websites gehören, taucht daher der Eintrag
/robots.txt sehr häufig in dieser Statistik auf. Dieser Fehler beinflusst
nur die Suchmaschinen-Roboter, Ihre Besucher kriegen nichts davon mit. Um
diesen “Fehler” los zu werden, können sie eine eigene Robots-Datei
erstellen. Das Erstellen einer Robots.txt Datei ist unter http://www.robotstxt.org/wc/exclusion-admin.html
beschrieben.

 

Die Datei favicon.ico wird vom MS Internet Explorer benutzt, um URLs individuell
darzustellen.

src="http://uckan.info/img/favicon.gif" alt="Favicon-Beispiel" />

Setzt ein MSIE Benutzer einen Bookmark auf eine Seite, fordert der Browser
zuerst im aktuellen, dann im Root-Verzeichnis ( /..) die 32 x 32 Pixel-Datei
favicon.ico an. Existiert sie nicht, taucht sie in den Fehlerstatistiken
auf. Dem kann also durch Erstellung eines 32 x 32 grossen Bitmaps namens
favicon.ico im Verzeichnis /.. entgegengewirkt werden. Andernfalls kann
man durch gezieltes Weglassen dieser Datei auch ungefähr nachvollziehen,
wieviele MSIE-User einen Bookmark auf einer der Seiten gesetzt haben.

Bei Seiten, die eine Fehlermeldung produzieren, weil es sie nicht mehr
gibt (wie in unserem Fall durch eine Re-Organisation der Site-Struktur)
kann man “Brücken-Seiten” einbauen. Diese Brückenseiten enthalten
eine automatische Weiterleitung zur aktuellen URL und müssen logischerweise
den alten, nicht mehr existenten Dateinamen besitzen.

Beispiel :

Die URL http://www.usability-test.net/artikel.php3 hat sich in

http://www.usability-test.net/artikel/index.htm geändert.

Unter http://www.usability-test.net/artikel.php3 wird eine html-Seite nach
folgendem Beispiel erstellt :

<html>
<head>
<title>www.usability-test.net - Weiterleitung</title>

<meta http-equiv=”refresh” content=”1; URL=http://www.usability-test.net/artikel/index.htm”>

</head>

<body>
<p>Diese Seite existiert nicht mehr. </p>
<p>Sie werden auf <a href=”http://www.usability-test.net/artikel/index.htm”>
http://www.usability-test.net/artikel/index.htm
</a>weitergeleitet.</p>

</body>
</html>

Nach einer Sekunde wird der Benutzer automatisch auf die aktuelle URL weiterleitet.

Der Code 404 (= nicht gefunden) taucht bereits in der oben beschrieben
Statistik der nicht gefundenen Seiten auf.

Der Code 401 (= nicht autorisiert) ist aus Sicherheitsgründen interessant.
In Passwort-geschützten Bereichen wird jede Fehleingabe von Benutzername
oder Passwort als Fehlercode 401 gemeldet.

Dies waren nur einige Statistiken, die man bei Massen-Hostern ohne Aufpreis
erhalten kann. Andere (kommerzielle) Analyse-Programme können weit detailliertere
Statistiken und Interpretationsmöglichikeiten liefern.

Insgesamt ist die regelmässige Kontrolle und Analyse der Server-Logfiles
wichtig für die Usability-Kontrolle. Dadurch kann der Webmaster gestalterische
Schwachstellen einer Site aufspüren bzw. realen Feedback zu Design-Entscheidungen
erhalten.

Quellen (alles externe Links zu anderen Websites):
(1) the webmasters resource - http://www.webmeister.ch/server/
webserver/logfiles/default.htm
(2) Logfile-Analyzer - Erfolgreich im Web - http://www.zdnet.de/internet/artikel/sw/200007/logfile01_01-nc.html
(3) Web Server Administrator’s Guide to the Robots Exclusion Proocol

danke danke

Zitat:

Original geschrieben von TotesAuto


Log File Analyse
Interpretationsmöglichkeiten von Webserver Logfiles.

Wie kommen Logfile-Einträge zustande ?

Bei jeder Anfrage eines Clients (meist ein WWW-Browser)
an einen Webserver wird ein Eintrag in den Logfiles generiert. Oder genauer
gesagt : Jeder “Hit” erzeugt eine Zeile in den Logfiles. Hier ist
eine Beispielzeile aus unseren Server-Logfiles :

62.158.8.73 - - [04/Mar/2001:12:41:59 +0100] “get / HTTP/1.1″ 200 4425 www.usability-test.nethttp://ideenreich.com/surftipps-allerlei.shtml”“Mozilla/4.0 (compatible; MSIE 5.5; Windows 98; Win 9x 4.90)” Dieser Eintrag ist zustande gekommen, als die URL www.usability-test.net
und damit die Seite http://www.usability-test.net/index.htm angefordert
wurde.

Jedes Element einer Webseite (Bild, html-Seite, Skript …) landet als
ein Hit in den Logfiles. In diesem Falle war es also das Anfordern der Seite
index.htm.

Des weiteren sieht man in dieser Zeile Informationen zu :

IP Adresse des Clients
62.158.8.73

Datum und Zeit der Anfrage
04/Mar/2001:12:41:59 +0100

Das verwendete Übertragungsprotokoll und die Methode
get / HTTP/1.1

HTTP Status Code
200

Anzahl der übermittelten Bytes
4425

Refer (vorherige URL)
http://ideenreich.com/ surftipps-allerlei.shtml

Browser und Betriebssystem
” “Mozilla/4.0 (compatible; MSIE 5.5; Windows 98; Win 9x
4.90)

Webserver Logfiles sind nicht alle nach dem gleichen Muster aufgebaut.
Es existieren mehrere Logfile-Formate wie (1) :

Common Logfile Format
Combined Logfile Format
NCSA Common Format
W3C Extended Format
Microsoft IIS Format
…und noch einige weitere.

Interpretationen
Ein Webserver Logfile besitzt mehrere Zeileneinträge. Bei gut besuchten
Sites kann diese Datei bis zu mehreren Megabyte pro Tag wachsen. Da es für
einen Menschen unmöglich ist, aus jedem Zeileneintrag auf eine sinnvolle
Aussage zum Erfolg einer Präsenz zu kommen, verwendet man spezielle Analyse-Programme
(Logfile Anaylzer). (2)

Einige WWW-Hoster wie Puretec oder Strato bieten diese Analysen auch im
WWW-Format im vorgesehenen Kundenbereich. Der “http-analyzer”, den
Strato einsetzt, kategoriert seine Analyse wie im Bild unten :

 

Der Analyse-Teil bezüglich der einzelnen Tage zeigt die Tendenz
innerhalb eines Monats.

 

Die Zusammenfassung der Hits nach Wochentagen kann Aufschluss darüber
geben, ob die Domain eher zu Werktagen oder auch an Feiertagen (und
damit überwiegend privat) besucht wird.

Genauere Aussagen zur privaten oder arbeitsbedingten Nutzung der
Domain lässt die Darstellung nach Tageszeiten zu :

 

Bei den “Top-Ten der Hits” sieht man in den Strato-Statistiken
zu www.whippet.de
nochmal deutlich, dass Hits nicht gleich Seiten sind. Da sich - bei www.whippet.de
- pro Seite mindestens 6 grafische Elemente befinden, machen sie in diesen
Charts 66% der erzeugten Hits aus :

 

Surf-Verhalten auf den Seiten
Die Top 20 der meist-besuchten URLS bzw. der am häufigsten angeforderten
Seiten sieht bei usability-test.net für die dritte Aprilwoche wie folgt
aus :

Bei der Interpretation der ersten Positionen ist in diesem Fall jedoch
zu beachten
, dass sich zentrale Elemente wie die formate.css, winopen.js oder enframen.js
auf jeder Seite befinden und somit u.U. bei jedem Seitenwechsel einen neuen
Hit generieren. Es ist in diesen Fällen also trivial, dass sie sich in den
obersten Positionen der Top 20 befinden.

Bei Seiten, die mit Frames gestaltet sind, gilt dies auch für die konstant
sichtbaren Framesets der Site (z.B. der Frame, in der sich die Site-Navigation
befindet). Es ist also einfacher zu interpretieren, welche Seiten am häufigsten
aufgerufen worden sind (und damit am populärsten sind), wenn man auf Frames
verzichtet.

Ansonsten dürften in dieser Top 20 die .htm-Seiten interessieren, in denen
sich die eigentlichen Inhalte befinden. Man findet in allen Logfile Analyse-Programmen
auch detaillierte Listen, die sich auf alle HTML-Seiten einzeln beziehen.

Einige Logfile Analyzer (wie z.B. OpenWebScope von LeechSoftware) können
auch einzelne “Navigations-Pfade” der Besucher nachvollziehen, in
dem sie die Liste der meistbeuschten URLs in Relation mit den Besucher-IPs
und dem Zeitraum stellen. Ein häufig beschrittener Pfad auf unserer Domain
ist z.B.:

index.htm –> neues.htm — > name_des_neuen_artikels.htm

Dies lässt Vvermutung zu, dass neue Artikel von Surfern, die zufällig durch
den Haupteingang (index.htm) kommen, angenommen werden. Wäre dieser Pfad
in den unteren Rängen der am häufigsten verwendeten Site-Pfade aufgeführt,
hiesse dies, dass die neuen Artikel zu “versteckt” sind und nicht
von allen Surfern wahrgenommen werden.

Bei den Pfaden, die mit name_des_neuen_artikels.htm beginnen,
kann man z.B. spekulieren dass diese Besucher über einen

Bookmark,
eine Weiterempfehlung
einen Suchmaschinen-Link
oder dem Link auf unserem Newsletter
auf diese Seite gekommen sind.

Wer sind die Besucher ?
Die Statistiken zu den Client Domains geben Auskunft über die Besucher
der Domain. Aus den Logfile-Statistiken allein, erhält man nur eine ungefähre
Ahnung über die Kundschaft. Genaueres ist erst mit Authentifizierungsmethoden
wie Login-Accounts oder Cookies möglich. Dennoch lässt sich mit diesen Statistiken
schon ein grobes “Kundenprofil” erahnen. Dazu sollte man die Client-URL
ohne Rechnernamen (4) in die URL-Zeile des Browsers kopieren und die Domain
(eventuell mit einem www. davor) einfach mal ansteuern.

In vielen Fällen sieht man schon am Namen, ob es sich um einen Provider
oder eine eigene Internet-Anbindung handelt.

pd9010e1b.dip.t-dialin.net z.B. ist eine typische T-Online
Einwahl-IP, die dynamisch zugewiesen wird. An folgender IP erkennt man sogar,
dass der Besucher mit einer DSL-Anbindung aus Österreich kam : n497p026.adsl.highway.telekom.at

Bei unbekannteren Providern lohnt es sich, auf die
Provider-Site zu schauen und festzustellen, ob dieser eventuell nur für
Firmen (kleine und mittelständische Unternehmen oder Gross-Konzerne ?) oder
auch für Privat-Personen eine Dienstleistung erbringt.

Bei proxy.wysiwyg.de erkennt man leicht, dass es sich
um einen eigenen Proxy-Server der Firma wysiwyg Software Design (unter http://www.wysiwyg.de/)
handeln muss.

Die technische Ausstattung der Besucher
Die Browser-Statistiken, die auch die Infos zum Betriebssystem beinhalten,
liefern die wichtigsten Vorgaben zur Accessibility-Optimierung einer Präsenz.
Bei der Analyse der Browser-Statistiken sollten man sein Augenmerk nicht
auf die Top-Positionen legen, sondern auf diejenigen mit einem geringen
Anteil oder auf jene, die überhaupt nicht auftauchen.

Browser-Statistiken von www.whippet.de im April 2001

Die Information zum Betriebssystem des Besuchers lässt Interpretationen
zum Beruf oder Kenntnisstand zu.
User des Betriebssystems Win98, Win2000 oder Windows XP beta x sind entweder
Besitzer eines neuen PCs oder eines PCs mit mindestens 200 Mhz und genügend
EDV-Kenntnissen, um ein Betriebssystem zu installieren. Beta-Usern kann
unter Umständen sogar Experimentier-Freude nachgesagt werden.

Unix oder Linux-User sind fortgeschrittene bis professionelle PC-Anwender
oder auch Ingenieure, Mathematiker oder Physiker an wissenschaftlichen Einrichtungen
(Labore, Universitäten etc.).

Apple Macintosh Anwender haben erfahrungsgemäss ein höher ausgeprägtes ästhetisches
Empfinden. Medien-Menschen und Designer sind die häufigsten Mac-Anwender.

Alte Betriebssysteme wie Windows 3.xx oder Windows95 oder MacOS7 sind meist
auf älterer Hardware installiert und werden nicht mehr aktualisiert.

Woher kommen die Besucher ?
Einer der interessantesten Punkte ist sicherlich zu lernen, woher die Besucher
auf die eigene Präsenz kommen. Darüber geben die als Referrer-URL bezeichneten
Statistiken Auskunft.

Bei der Navigation innerhalb einer Site steht der eigene Domainname als
Refer-Adresse. Da dieser Fall häufig vorkommt, steht in der Refer-Statistik
von www. whippet.de die eigene Domain an erster Stelle. Bei den meisten
Logfile Analyse Programmen kann man aber einen entsprechenden Filter setzen,
so dass die eigene Domain nicht in der Statistik auftaucht.

In den Details der Refer-Statistiken steht der komplette Pfad der Herkunfts-URL,
so dass man u.U. nachvollziehen kann, auf welchen Seiten ein Link auf die
eigene Domain gesetzt wurde.

Refer-Detailstatistik

Nebennotiz - Aufbau einer URL:

Beispiel-URL : www.usability-test.net

Rechnername : www
Second-Level-Domainname : usability-test
Top-Level-Domainname : net

Ein weiterer Weg zu erfahren, wieviele Links auf die eigene Präsenz gesetzt
wurden, bieten die Suchmaschinen Altavista, Fireball und Infoseek. Durch
Eingabe von

link:http://www.domain.tld/

geben diese Suchmaschinen alle Seiten aus, die einen Link auf die Domain
www.domain.tld gesetzt haben.

Fehlerjagd

Die Top Ten der nicht gefundenen Seiten ist hilfreich um existentielle
Probleme der Site aufzuspüren. Da Suchmaschinen-Roboter mittlerweile zu
den häufigsten Besuchern von Websites gehören, taucht daher der Eintrag
/robots.txt sehr häufig in dieser Statistik auf. Dieser Fehler beinflusst
nur die Suchmaschinen-Roboter, Ihre Besucher kriegen nichts davon mit. Um
diesen “Fehler” los zu werden, können sie eine eigene Robots-Datei
erstellen. Das Erstellen einer Robots.txt Datei ist unter http://www.robotstxt.org/wc/exclusion-admin.html
beschrieben.

 

Die Datei favicon.ico wird vom MS Internet Explorer benutzt, um URLs individuell
darzustellen.

src="http://uckan.info/img/favicon.gif" alt="Favicon-Beispiel" />

Setzt ein MSIE Benutzer einen Bookmark auf eine Seite, fordert der Browser
zuerst im aktuellen, dann im Root-Verzeichnis ( /..) die 32 x 32 Pixel-Datei
favicon.ico an. Existiert sie nicht, taucht sie in den Fehlerstatistiken
auf. Dem kann also durch Erstellung eines 32 x 32 grossen Bitmaps namens
favicon.ico im Verzeichnis /.. entgegengewirkt werden. Andernfalls kann
man durch gezieltes Weglassen dieser Datei auch ungefähr nachvollziehen,
wieviele MSIE-User einen Bookmark auf einer der Seiten gesetzt haben.

Bei Seiten, die eine Fehlermeldung produzieren, weil es sie nicht mehr
gibt (wie in unserem Fall durch eine Re-Organisation der Site-Struktur)
kann man “Brücken-Seiten” einbauen. Diese Brückenseiten enthalten
eine automatische Weiterleitung zur aktuellen URL und müssen logischerweise
den alten, nicht mehr existenten Dateinamen besitzen.

Beispiel :

Die URL http://www.usability-test.net/artikel.php3 hat sich in

http://www.usability-test.net/artikel/index.htm geändert.

Unter http://www.usability-test.net/artikel.php3 wird eine html-Seite nach
folgendem Beispiel erstellt :

<html>
<head>
<title>www.usability-test.net - Weiterleitung</title>

<meta http-equiv=”refresh” content=”1; URL=http://www.usability-test.net/artikel/index.htm”>

</head>

<body>
<p>Diese Seite existiert nicht mehr. </p>
<p>Sie werden auf <a href=”http://www.usability-test.net/artikel/index.htm”>
http://www.usability-test.net/artikel/index.htm
</a>weitergeleitet.</p>

</body>
</html>

Nach einer Sekunde wird der Benutzer automatisch auf die aktuelle URL weiterleitet.

Der Code 404 (= nicht gefunden) taucht bereits in der oben beschrieben
Statistik der nicht gefundenen Seiten auf.

Der Code 401 (= nicht autorisiert) ist aus Sicherheitsgründen interessant.
In Passwort-geschützten Bereichen wird jede Fehleingabe von Benutzername
oder Passwort als Fehlercode 401 gemeldet.

Dies waren nur einige Statistiken, die man bei Massen-Hostern ohne Aufpreis
erhalten kann. Andere (kommerzielle) Analyse-Programme können weit detailliertere
Statistiken und Interpretationsmöglichikeiten liefern.

Insgesamt ist die regelmässige Kontrolle und Analyse der Server-Logfiles
wichtig für die Usability-Kontrolle. Dadurch kann der Webmaster gestalterische
Schwachstellen einer Site aufspüren bzw. realen Feedback zu Design-Entscheidungen
erhalten.

Quellen (alles externe Links zu anderen Websites):
(1) the webmasters resource - http://www.webmeister.ch/server/
webserver/logfiles/default.htm
(2) Logfile-Analyzer - Erfolgreich im Web - http://www.zdnet.de/internet/artikel/sw/200007/logfile01_01-nc.html
(3) Web Server Administrator’s Guide to the Robots Exclusion Proocol

HÄ?!?!

Zitat:

Original geschrieben von TotesAuto


Log File Analyse
Interpretationsmöglichkeiten von Webserver Logfiles.

Wie kommen Logfile-Einträge zustande ?

Bei jeder Anfrage eines Clients (meist ein WWW-Browser)
an einen Webserver wird ein Eintrag in den Logfiles generiert. Oder genauer
gesagt : Jeder “Hit” erzeugt eine Zeile in den Logfiles. Hier ist
eine Beispielzeile aus unseren Server-Logfiles :

62.158.8.73 - - [04/Mar/2001:12:41:59 +0100] “get / HTTP/1.1″ 200 4425 www.usability-test.nethttp://ideenreich.com/surftipps-allerlei.shtml”“Mozilla/4.0 (compatible; MSIE 5.5; Windows 98; Win 9x 4.90)” Dieser Eintrag ist zustande gekommen, als die URL www.usability-test.net
und damit die Seite http://www.usability-test.net/index.htm angefordert
wurde.

Jedes Element einer Webseite (Bild, html-Seite, Skript …) landet als
ein Hit in den Logfiles. In diesem Falle war es also das Anfordern der Seite
index.htm.

Des weiteren sieht man in dieser Zeile Informationen zu :

IP Adresse des Clients
62.158.8.73

Datum und Zeit der Anfrage
04/Mar/2001:12:41:59 +0100

Das verwendete Übertragungsprotokoll und die Methode
get / HTTP/1.1

HTTP Status Code
200

Anzahl der übermittelten Bytes
4425

Refer (vorherige URL)
http://ideenreich.com/ surftipps-allerlei.shtml

Browser und Betriebssystem
” “Mozilla/4.0 (compatible; MSIE 5.5; Windows 98; Win 9x
4.90)

Webserver Logfiles sind nicht alle nach dem gleichen Muster aufgebaut.
Es existieren mehrere Logfile-Formate wie (1) :

Common Logfile Format
Combined Logfile Format
NCSA Common Format
W3C Extended Format
Microsoft IIS Format
…und noch einige weitere.

Interpretationen
Ein Webserver Logfile besitzt mehrere Zeileneinträge. Bei gut besuchten
Sites kann diese Datei bis zu mehreren Megabyte pro Tag wachsen. Da es für
einen Menschen unmöglich ist, aus jedem Zeileneintrag auf eine sinnvolle
Aussage zum Erfolg einer Präsenz zu kommen, verwendet man spezielle Analyse-Programme
(Logfile Anaylzer). (2)

Einige WWW-Hoster wie Puretec oder Strato bieten diese Analysen auch im
WWW-Format im vorgesehenen Kundenbereich. Der “http-analyzer”, den
Strato einsetzt, kategoriert seine Analyse wie im Bild unten :

 

Der Analyse-Teil bezüglich der einzelnen Tage zeigt die Tendenz
innerhalb eines Monats.

 

Die Zusammenfassung der Hits nach Wochentagen kann Aufschluss darüber
geben, ob die Domain eher zu Werktagen oder auch an Feiertagen (und
damit überwiegend privat) besucht wird.

Genauere Aussagen zur privaten oder arbeitsbedingten Nutzung der
Domain lässt die Darstellung nach Tageszeiten zu :

 

Bei den “Top-Ten der Hits” sieht man in den Strato-Statistiken
zu www.whippet.de
nochmal deutlich, dass Hits nicht gleich Seiten sind. Da sich - bei www.whippet.de
- pro Seite mindestens 6 grafische Elemente befinden, machen sie in diesen
Charts 66% der erzeugten Hits aus :

 

Surf-Verhalten auf den Seiten
Die Top 20 der meist-besuchten URLS bzw. der am häufigsten angeforderten
Seiten sieht bei usability-test.net für die dritte Aprilwoche wie folgt
aus :

Bei der Interpretation der ersten Positionen ist in diesem Fall jedoch
zu beachten
, dass sich zentrale Elemente wie die formate.css, winopen.js oder enframen.js
auf jeder Seite befinden und somit u.U. bei jedem Seitenwechsel einen neuen
Hit generieren. Es ist in diesen Fällen also trivial, dass sie sich in den
obersten Positionen der Top 20 befinden.

Bei Seiten, die mit Frames gestaltet sind, gilt dies auch für die konstant
sichtbaren Framesets der Site (z.B. der Frame, in der sich die Site-Navigation
befindet). Es ist also einfacher zu interpretieren, welche Seiten am häufigsten
aufgerufen worden sind (und damit am populärsten sind), wenn man auf Frames
verzichtet.

Ansonsten dürften in dieser Top 20 die .htm-Seiten interessieren, in denen
sich die eigentlichen Inhalte befinden. Man findet in allen Logfile Analyse-Programmen
auch detaillierte Listen, die sich auf alle HTML-Seiten einzeln beziehen.

Einige Logfile Analyzer (wie z.B. OpenWebScope von LeechSoftware) können
auch einzelne “Navigations-Pfade” der Besucher nachvollziehen, in
dem sie die Liste der meistbeuschten URLs in Relation mit den Besucher-IPs
und dem Zeitraum stellen. Ein häufig beschrittener Pfad auf unserer Domain
ist z.B.:

index.htm –> neues.htm — > name_des_neuen_artikels.htm

Dies lässt Vvermutung zu, dass neue Artikel von Surfern, die zufällig durch
den Haupteingang (index.htm) kommen, angenommen werden. Wäre dieser Pfad
in den unteren Rängen der am häufigsten verwendeten Site-Pfade aufgeführt,
hiesse dies, dass die neuen Artikel zu “versteckt” sind und nicht
von allen Surfern wahrgenommen werden.

Bei den Pfaden, die mit name_des_neuen_artikels.htm beginnen,
kann man z.B. spekulieren dass diese Besucher über einen

Bookmark,
eine Weiterempfehlung
einen Suchmaschinen-Link
oder dem Link auf unserem Newsletter
auf diese Seite gekommen sind.

Wer sind die Besucher ?
Die Statistiken zu den Client Domains geben Auskunft über die Besucher
der Domain. Aus den Logfile-Statistiken allein, erhält man nur eine ungefähre
Ahnung über die Kundschaft. Genaueres ist erst mit Authentifizierungsmethoden
wie Login-Accounts oder Cookies möglich. Dennoch lässt sich mit diesen Statistiken
schon ein grobes “Kundenprofil” erahnen. Dazu sollte man die Client-URL
ohne Rechnernamen (4) in die URL-Zeile des Browsers kopieren und die Domain
(eventuell mit einem www. davor) einfach mal ansteuern.

In vielen Fällen sieht man schon am Namen, ob es sich um einen Provider
oder eine eigene Internet-Anbindung handelt.

pd9010e1b.dip.t-dialin.net z.B. ist eine typische T-Online
Einwahl-IP, die dynamisch zugewiesen wird. An folgender IP erkennt man sogar,
dass der Besucher mit einer DSL-Anbindung aus Österreich kam : n497p026.adsl.highway.telekom.at

Bei unbekannteren Providern lohnt es sich, auf die
Provider-Site zu schauen und festzustellen, ob dieser eventuell nur für
Firmen (kleine und mittelständische Unternehmen oder Gross-Konzerne ?) oder
auch für Privat-Personen eine Dienstleistung erbringt.

Bei proxy.wysiwyg.de erkennt man leicht, dass es sich
um einen eigenen Proxy-Server der Firma wysiwyg Software Design (unter http://www.wysiwyg.de/)
handeln muss.

Die technische Ausstattung der Besucher
Die Browser-Statistiken, die auch die Infos zum Betriebssystem beinhalten,
liefern die wichtigsten Vorgaben zur Accessibility-Optimierung einer Präsenz.
Bei der Analyse der Browser-Statistiken sollten man sein Augenmerk nicht
auf die Top-Positionen legen, sondern auf diejenigen mit einem geringen
Anteil oder auf jene, die überhaupt nicht auftauchen.

Browser-Statistiken von www.whippet.de im April 2001

Die Information zum Betriebssystem des Besuchers lässt Interpretationen
zum Beruf oder Kenntnisstand zu.
User des Betriebssystems Win98, Win2000 oder Windows XP beta x sind entweder
Besitzer eines neuen PCs oder eines PCs mit mindestens 200 Mhz und genügend
EDV-Kenntnissen, um ein Betriebssystem zu installieren. Beta-Usern kann
unter Umständen sogar Experimentier-Freude nachgesagt werden.

Unix oder Linux-User sind fortgeschrittene bis professionelle PC-Anwender
oder auch Ingenieure, Mathematiker oder Physiker an wissenschaftlichen Einrichtungen
(Labore, Universitäten etc.).

Apple Macintosh Anwender haben erfahrungsgemäss ein höher ausgeprägtes ästhetisches
Empfinden. Medien-Menschen und Designer sind die häufigsten Mac-Anwender.

Alte Betriebssysteme wie Windows 3.xx oder Windows95 oder MacOS7 sind meist
auf älterer Hardware installiert und werden nicht mehr aktualisiert.

Woher kommen die Besucher ?
Einer der interessantesten Punkte ist sicherlich zu lernen, woher die Besucher
auf die eigene Präsenz kommen. Darüber geben die als Referrer-URL bezeichneten
Statistiken Auskunft.

Bei der Navigation innerhalb einer Site steht der eigene Domainname als
Refer-Adresse. Da dieser Fall häufig vorkommt, steht in der Refer-Statistik
von www. whippet.de die eigene Domain an erster Stelle. Bei den meisten
Logfile Analyse Programmen kann man aber einen entsprechenden Filter setzen,
so dass die eigene Domain nicht in der Statistik auftaucht.

In den Details der Refer-Statistiken steht der komplette Pfad der Herkunfts-URL,
so dass man u.U. nachvollziehen kann, auf welchen Seiten ein Link auf die
eigene Domain gesetzt wurde.

Refer-Detailstatistik

Nebennotiz - Aufbau einer URL:

Beispiel-URL : www.usability-test.net

Rechnername : www
Second-Level-Domainname : usability-test
Top-Level-Domainname : net

Ein weiterer Weg zu erfahren, wieviele Links auf die eigene Präsenz gesetzt
wurden, bieten die Suchmaschinen Altavista, Fireball und Infoseek. Durch
Eingabe von

link:http://www.domain.tld/

geben diese Suchmaschinen alle Seiten aus, die einen Link auf die Domain
www.domain.tld gesetzt haben.

Fehlerjagd

Die Top Ten der nicht gefundenen Seiten ist hilfreich um existentielle
Probleme der Site aufzuspüren. Da Suchmaschinen-Roboter mittlerweile zu
den häufigsten Besuchern von Websites gehören, taucht daher der Eintrag
/robots.txt sehr häufig in dieser Statistik auf. Dieser Fehler beinflusst
nur die Suchmaschinen-Roboter, Ihre Besucher kriegen nichts davon mit. Um
diesen “Fehler” los zu werden, können sie eine eigene Robots-Datei
erstellen. Das Erstellen einer Robots.txt Datei ist unter http://www.robotstxt.org/wc/exclusion-admin.html
beschrieben.

 

Die Datei favicon.ico wird vom MS Internet Explorer benutzt, um URLs individuell
darzustellen.

src="http://uckan.info/img/favicon.gif" alt="Favicon-Beispiel" />

Setzt ein MSIE Benutzer einen Bookmark auf eine Seite, fordert der Browser
zuerst im aktuellen, dann im Root-Verzeichnis ( /..) die 32 x 32 Pixel-Datei
favicon.ico an. Existiert sie nicht, taucht sie in den Fehlerstatistiken
auf. Dem kann also durch Erstellung eines 32 x 32 grossen Bitmaps namens
favicon.ico im Verzeichnis /.. entgegengewirkt werden. Andernfalls kann
man durch gezieltes Weglassen dieser Datei auch ungefähr nachvollziehen,
wieviele MSIE-User einen Bookmark auf einer der Seiten gesetzt haben.

Bei Seiten, die eine Fehlermeldung produzieren, weil es sie nicht mehr
gibt (wie in unserem Fall durch eine Re-Organisation der Site-Struktur)
kann man “Brücken-Seiten” einbauen. Diese Brückenseiten enthalten
eine automatische Weiterleitung zur aktuellen URL und müssen logischerweise
den alten, nicht mehr existenten Dateinamen besitzen.

Beispiel :

Die URL http://www.usability-test.net/artikel.php3 hat sich in

http://www.usability-test.net/artikel/index.htm geändert.

Unter http://www.usability-test.net/artikel.php3 wird eine html-Seite nach
folgendem Beispiel erstellt :

<html>
<head>
<title>www.usability-test.net - Weiterleitung</title>

<meta http-equiv=”refresh” content=”1; URL=http://www.usability-test.net/artikel/index.htm”>

</head>

<body>
<p>Diese Seite existiert nicht mehr. </p>
<p>Sie werden auf <a href=”http://www.usability-test.net/artikel/index.htm”>
http://www.usability-test.net/artikel/index.htm
</a>weitergeleitet.</p>

</body>
</html>

Nach einer Sekunde wird der Benutzer automatisch auf die aktuelle URL weiterleitet.

Der Code 404 (= nicht gefunden) taucht bereits in der oben beschrieben
Statistik der nicht gefundenen Seiten auf.

Der Code 401 (= nicht autorisiert) ist aus Sicherheitsgründen interessant.
In Passwort-geschützten Bereichen wird jede Fehleingabe von Benutzername
oder Passwort als Fehlercode 401 gemeldet.

Dies waren nur einige Statistiken, die man bei Massen-Hostern ohne Aufpreis
erhalten kann. Andere (kommerzielle) Analyse-Programme können weit detailliertere
Statistiken und Interpretationsmöglichikeiten liefern.

Insgesamt ist die regelmässige Kontrolle und Analyse der Server-Logfiles
wichtig für die Usability-Kontrolle. Dadurch kann der Webmaster gestalterische
Schwachstellen einer Site aufspüren bzw. realen Feedback zu Design-Entscheidungen
erhalten.

Quellen (alles externe Links zu anderen Websites):
(1) the webmasters resource - http://www.webmeister.ch/server/
webserver/logfiles/default.htm
(2) Logfile-Analyzer - Erfolgreich im Web - http://www.zdnet.de/internet/artikel/sw/200007/logfile01_01-nc.html
(3) Web Server Administrator’s Guide to the Robots Exclusion Proocol

😁

Merkwürdige Antwort.

Bevor jetzt jeder diese Antwort wieder zitiert schließe ich den Thread an dieser Stelle.

***CLOSED***

Ähnliche Themen