Skip to content

Arbeitsumgebung mit virtuellen Arbeitsflächen KDE auf Gentoo Linux

Erwähnt habe ich ja schon ein paarmal, dass ich nicht gerade unter Standardbedingungen arbeite.
  • Arbeitsfläche konsole
  • Desktop bildle
  • virtueller Desktop kontact
Aktuell fragt Frank Helmschrott grad danach, ob man virtuelle Arbeitsflächen nutzt. Bislang waren zumindest die Kommentierenden überwiegend keine Fans von solchen Umgebungen. Für mich sind mehrere Desktops essenziell. Was ich beim Start morgens direkt nutze, habe ich bereits beim Thema Webeentwicklung mit Linux beschrieben. Ich nutze immer vier Arbeitsflächen:
  • konsole
  • kontact
  • bildle
  • divers

konsole

Die wichtigste Arbeitsfläche, da sind immer zwei Konqueror (Dateimanager) offen in den gerade meistgenutzten Verzeichnissen. Außerdem natürlich eine Konsole. In dieser gibts einige benannte Fenster, die immer im passenden Pfad stehen, sei es für SVN (Subversion Versionskontrolle) für Sicherungskopien, Arbeiten auf anderen Rechnern...

kontact

Hier ist meist Kontact offen, also mit Mailprogramm, Kalender, Terminen, RSS-Akregator, Usenet, Adressbuch und so. Außerdem ist hier immer ein Firefox mit mindestens acht, meist eher so um die dreißig Tabs offen. Ständig offen sind, die Adminbereiche der eigenen Blogs, ein Tab mit Suchmaschine, die Blogansichten der eigenen Blogs. Hinzu kommen die Tabs mit allem was ich noch tun will und tun muss. Artikel lesen und kommentieren, Webseiten betreuen, recherchieren...

bildle

Auf dieser Arbeitsfläche gibts kein Hintergrundbild, wie sonst in halbtransparent z.B. in der Konsole immer sichtbar. Wenn ich mit Bildern arbeite, sei es in Digikam der Bildverwaltung, mit Scribus oder mit GIMP, dann brauche ich einen nicht ablenkenden Hintergrund.

divers

Hier liegt das, woran ich gerade aktuell arbeite. Mal OpenOffice.org-Dateien, mal Quanta (Webseiteneditor), mal Eclipse (PHP-Entwicklungsumgebung und SVN-Client), mal diverse andere Browser, wenn es um Layoutentwürfe oder Tests von Webseiten geht.

Nutzen mehrerer Arbeitsflächen/Desktops

Ich habe so immer die entsprechenden Programme an ein und derselben Stelle. Ich liebe den Vollbildmodus, habe jedoch meist recht viel gleichzeitig offen und könnte ohne meine Desktops keinen Überblick behalten. In der Kontrollleiste, die von jeder Fläche aus sichtbar ist, lassen sich
  • häufig genutzte Programme öffnen
  • zwischen Arbeitsflächen wechseln
  • Umschalter um den jeweiligen Desktop ohne ein Programm anzuzeigen (da liegen ein paar Symbole für weitere häufiger, aber nicht täglich genutzte Programme
  • zwischen offenen Programmen wechseln
  • wird ein Farbwähler angezeigt, der von jeder Stelle des Bildschirm die Farbwerte aufnehmen kann
  • gibts eine Tastaturumschaltung deutsch, englisch, spanisch, nützlich wenn ich an fremdsprachigen Präsentationen arbeite
  • gibts noch Kontrollsymbole
    • für die Akkulaufzeit
    • die Bildschirmauflösung
    • das Touchpad
    • die verschiedenen Kopierspeicher unter Linux
    • Kopete für Chats per ICQ und Jabber
    • die Brieftasche KWallet, die Passwörter verwaltet
  • sowie das Amaroksymbol, falls ich nebenbei Musik höre
  • das Wetter von Friedrichshafen, dass fast so ist wie hier in Konstanz (aktuell 2°C und Schneeregen)
  • das Datum und eine textbasierte Uhr, die jetzt grad "fünf vor halb eins" anzeigt
Manche mögen mehrere Monitore, damit lässt sich ähnlich arbeiten. Für mich passt das nicht, da ich meist mehrmals täglich den Platz wechsle, mal stehend, mal am Schreibtisch, mal in diesem Raum, mal auf dem Balkon... Ich könnte nicht effektiv arbeiten mit einem Rechner, bei dem sich das nicht so ähnlich einrichten lässt. Wenn ich zum Testen von Webauftritten mal auf einer Standard-Windowsinstallation arbeite, bin ich völlig genervt. Weder mehrere Arbeitsflächen, noch sinnvoll einfaches Kopieren auch mit mittlerer Maustaste, viele Programme öffnen unzählige Fenster, nie werde ich mich an Doppelklicks gewöhnen... Meines Erachtens ist vieles auch Gewohnheit, je nachdem womit man häufiger umgeht, kommt man damit am besten klar. Jedoch sollte man sich ein System schaffen, welches zur eigenen Arbeitsweise passt, egal wie sehr sich die vom Standard des jeweils genutzten Betriebssystems unterscheiden mag.

Webstandards für Webentwickler

via Jens Meiert gabs den Hinweis an Webentwickler, sich auf die entscheidenden Aspekte professioneller Webentwicklung zu konzentrieren und zu diesen zu bekennen. Eigens dafür wurde von ihm, sowie unter anderem von den Webkrauts eine Webseite initiiert, mittels der Webentwickler an die wichtigsten Punkte erinnert werden. Gebeten wird auch um Weiterverbreitung dieser 10 Punkte:

"Ein Appell an Webentwickler

  • Konzentrieren Sie sich aufs Lernen.
  • Konzentrieren Sie sich auf Barrierefreiheit.
  • Konzentrieren Sie sich auf Performance.
  • Konzentrieren Sie sich auf Semantik.
  • Konzentrieren Sie sich auf Validierung.
  • Konzentrieren Sie sich auf Wartbarkeit.
  • Konzentrieren Sie sich auf Zusammenarbeit.
  • Konzentrieren Sie sich auf Dokumentation.
  • Konzentrieren Sie sich auf Qualität.
  • Konzentrieren Sie sich aufs Unterrichten."
Wichtig sind alle Punkte, für mich ist es so:
  1. Lernen
    • ganz wichtiger Punkt, nur mit ständiger Weiterbildung, sowohl im Netz, als auch z.B. bei Barcamps, kann ich im Web auf dem aktuellen Stand bleiben.
  2. Barrierefreiheit
    • wer nicht meint, dass es keine Rampen für Rollstuhlfahrer braucht oder mit Signalton auf grün wechselnde Ampeln, der/die kann nicht ernsthaft Barrierefreiheit für überflüssig halten
  3. Performance
    • ich bin, trotz 16 MB-DSL immer wieder genervt, welche Ladezeiten manche Webseitenkonstrukte haben. Bei selbst erstellten Seiten versuche ich daher immer den goldenen Mittelweg zwischen netten Zusatzfunktionen und Ladezeit zu finden.
  4. Semantik
    • wenn die Struktur nicht semantisch ist, kapiere ich zumindest kurze Zeit später nicht mehr, was da wie zusammenhängt, deshalb ist es mir wichtig, dass hier alles passt.
  5. Validierung
  6. Wartbarkeit
    • aus meiner Sicht sind diese prall mit Definitionen, überflüssigen CSS-Klassen und ähnlichem Zeug gefüllten Seiten nicht wartbar. Knapp gehaltenes HTML und CSS machen zunächst mehr Arbeit, weil ich mich immer mal wieder selbst fragen muss, ob ich diese oder jene Definition wirklich brauche; jedoch später lohnt es sich, denn je kürzer und übersichtlicher alles geschrieben wurde, desto einfacher ist es, sich später wieder reinzufinden.
  7. Zusammenarbeit
    • da gibt es für mich mehrere Aspekte. Im Unternehmen ist es wichtig klare Richtlinien fürs Schreiben von Code zu haben, ebenso wichtig sind Regeln fürs Erstellen von HTML und CSS. Nur wenn wir uns da an einheitliche Formen halten, ist es möglich, dass jeder Mitarbeiter sofort den Code einer/s anderen versteht.
    • Viele Webseiten wären deutlich besser, wenn die Webseitenersteller bei ihren Kompetenzen bleiben würden. Informatiker und Grafikdesigner in einer Person gibt es so gut wie nie. Leider glauben viele Informatikspezialisten sie könnten ein grafisches Topdesign entwerfen, noch viel mehr Grafikdesigner glauben allerdings es genügt mit dem Dreamweaver klicken zu können, um gute Webseiten zu erstellen.
    • Gäbe es mehr sinnvolle Zusammenarbeit in Webprojekten zwischen den verschiedenen Spezialisten, dann wären Webseiten insgesamt deutlich besser.
  8. Dokumentation
    • Ich hasse überflüssige Kommentare, es ist nicht nötig, wenn ein Element form noch den Kommentar Anfang des Formulars bekommt. Im CSS muss auch nicht stehen Definition des Abstands vor jedem margin oder padding.
    • Noch mehr hasse ich jedoch fehlende Kommentare. Wenn ich etwas Spezielles im CSS nach einer Methode löse, die nicht in jedem Layout vorkommt, dann gehört da ein Kommentar hin. Wenn ich im HTML einen Container öffne mit div id="Container", dann ist ein Kommentar wie "hier beginnt der Container" überflüssig und unsinnig. Wenn ich jedoch das div wieder schließe, sehe ich nicht mehr, welches ich schließe, da möchte ich einen Kommentar Ende div Container.
  9. Qualität
    • Qualität ist nichts, was man plötzlich am Ende der Entwicklung einfach noch hinzufügen kann. Qualitativ hochwertige Seiten entstehen, indem in jeder Entwicklungsphase, geplant, überlegt, geprüft und getestet wird. Nur dann können Seiten entstehen, die hochwertig sind, das schließt nicht aus, dass es nicht auch Verbesserungspotenzial gibt oder dass es nicht trotzdem mal noch einen Fehler geben kann. Viele Fehler können jedoch von vorne herein vermieden werden.
  10. Unterrichten
    • klar, bezogen auf Mitarbeiter und noch mehr auf Azubis oder Schüler ist das Unterrichten sowieso ein Thema. Ich erwarte ja, dass meine Mitarbeiter denselben Standard nutzen, wie ich. Deshalb sind regelmäßige und immer wiederkehrende Schulungen nötig. Hier greift schon der reine Selbstzweck.
    • Mir ist jedoch auch Unterrichten wichtig, was darüber hinaus geht. Wenn ich möchte, dass immer mehr Seiten sich an Webstandards halten, dann muss ich etwas tun. Deshalb schreibe ich über vieles, z.B. hier im Blog, darum beteilige ich mich in Mailinglisten, Foren usw. immer wieder und aus demselben Grund halte ich Sessions bei Barcamps zum Thema Webstandards. Bei all diesem Unterrichten kommen noch zwei weitere Punkte hinzu, erstens es macht Spaß und zweitens wer unterrichtet lernt immer auch selbst dazu.
Wenn sich da alle Webentwickler dran halten würden... Ups, ich träume schon wieder, aber geiler wär's schon. ;-) PS: Jetzt wollte ich eigentlich auf Westernhagens Song verlinken, aber das ist mal wieder so eine Mini-Flashseite, die keine Links auf Unterseiten ermöglicht, und die bei der Titelabstimmung nicht nur meine Mail, sondern auch mein Alter als Pflichtangabe verlangt, na denn wenn ihnen 999 als Altersangabe weiterhilft. ;-) PPS: Warum auch der Appell an Webentwickler im Deutschen siezt, wo er doch im Spanischen duzt, das werde ich wohl nie verstehen...

Webstandards-Suchmaschine wird von Opera entwickelt

In einem Artikel bei Golem wird berichtet, dass sich zur Zeit nur 4 Prozent der Webseiten an Standards halten. Opera ist dabei eine Suchmaschine zu entwickeln, die solche Strukturen im Web untersucht. Die Suchmaschine heißt MAMA eine Abkürzung für "Metadata Analysis and Mining Application". Inzwischen wurden bereits 3,5 Millionen Webseiten untersucht. Noch ist die Suchmaschine nicht öffentlich zugänglich, sie soll jedoch in den kommenden Monaten erscheinen. Mir gefällt diese Idee, denn ich hoffe, dass Seiten wie der Relaunch des Südkurier damit seltener werden. Erschreckend ist meines Erachtens der geringe Anteil an standardkonformen Seiten. Ganz so niedrig hätte ich nicht geschätzt, denn das passt nicht mit meiner persönlichen Erfahrung. Das liegt sicherlich auch daran, dass ich viel auf Seiten unterwegs bin, die sich mit dem Thema Webstandards befassen. MAMA kann auch andere Punkte feststellen, z.B: dass in Deutschland 25% der Webseiten Flash einsetzen, während es in China sogar 67% sind. Weitere Untersuchungen sind möglich, wie:
  • Wie oft wird JavaScript eingesetzt?
  • Wieviele Seiten setzen mehr als 100 Hyperlinks ein?
  • Wieviele Webseiten sind speziell für mobile Endgeräte optimiert?
  • Inwieweit wird Web 2.0 genutzt?
  • Wie ist der Anteil an Webseiten die RSS-Feeds anbieten?
  • ...
Insgesamt kann eine ganze Reihe von Aspekten untersucht werden. Da habe ich doch mal wieder die Hoffnung, dass sich an der Qualität von Webseiten wieder mal etwas bewegt. Ich denke nicht, dass deshalb sofort alle neuen Auftritte standardkonform entwickelt werden. Jedoch hoffe ich, dass sich der Anteil an Webauftritten, die sich an Webstandards halten, damit erhöht.
  • Klasse fände ich, wenn es weniger Seiten gäbe, die Flash einsetzen, obwohl es keinen nachvollziehbaren Grund gibt.
  • Schön wäre, wenn mehr Seiten, die JavaScript nutzen, das zumindest sauber programmieren und nicht großzügig über Fehler und Warnungen hinweggesehen wird.
  • Super, fände ich, wenn überflüssiger Spielkram, der den Ablauf stört weniger würde.
    • Bei jedem Beitrag, den ich im TinyMCE des aktuellen WordPress schreibe, nervt mich dieser Spielkram, dass beim Link setzen, erstmal der Hintergrund ausgegraut wird und dann der Link per JavaScript eingebaut werden muss. In den alten Versionen war es ein Klick, dann war das Fenster zum Link setzen da, Link einfügen und gut war. Inzwischen dauert das Ganze etwa doppelt so lang, nur um einen optischen Effekt einzubauen.
  • Freuen würde ich mich, wenn irgendwann, wenigstens alle Seiten öffentlicher Institutionen gut funktionieren würden, wie z.B. im Artikel über Webstandards aufgeführt.
  • Womit ich nicht gerechnet hätte ist, dass es noch immer rund 20% Seiten gibt, die kein CSS einsetzen, auch da hoffe ich stark, dass sich das ändert.
  • Mein Traum ist ja auch immernoch, dass PDF nicht statt HTML eingesetzt wird, sondern nur als zusätzliche gute Möglichkeit für den Druck. Allerdings lässt sich ja auch mit der meisteingesetzten großen Suchmaschine bereits feststellen, dass es für manche Themen, nahezu keine anderen Ergebnisse, als PDF-Inhalte gibt.
Es gibt schon noch so einiges, bis das Web so ist, wie ich es gern hätte. Träumen darf ich ja... ;-)

Aktualisiert

Inzwischen gibt es einen sehr ausführlichen Artikehref="http://miradlo.net/bloggt/index.php?273-s"">Artikel über Webstandards aufgeführt.
  • Womit ich nicht gerechnet hätte ist, dass es noch immer rund 20% Seiten gibt, die kein CSS einsetzen, auch da hoffe ich stark, dass sich das ändert.
  • Mein Traum ist ja auch immernoch, dass PDF nicht statt HTML eingesetzt wird, sondern nur als zusätzliche gute Möglichkeit für den Druck. Allerdings lässt sich ja auch mit der meisteingesetzten großen Suchmaschine bereits feststellen, dass es für manche Themen, nahezu keine anderen Ergebnisse, als PDF-Inhalte gibt.
  • Es gibt schon noch so einiges, bis das Web so ist, wie ich es gern hätte. Träumen darf ich ja... ;-)

    Aktualisiert

    Inzwischen gibt es einen sehr ausführlichen Artikel von Sylvia Egger bei den Webkrauts zu MAMA.

    ...in eigener Sache: Kommentare ::: Kommentarabos und Abmahnungen

    Nein, ich will jetzt nicht der Diskussion um das Abmahnproblem einen weiteren Artikel hinzufügen, da gibt es schon ganz viele. Ich möchte auf etwas anderes hinweisen:

    Langsame Reaktion auf Kommentare

    Wie auch hier, jedoch vor allem in uteles Blog mehrfach erwähnt, wir haben grad eine Baustelle. Dieses Mal nicht vor allem im Laden, sondern dort rundum, aber so ganz genau lässt sich das nicht trennen, da das räumlich teils ineinander übergeht. Deshalb betreffen Baustelle an einer Ecke immer sowohl den privaten, wie auch den geschäftlichen Bereich. Unter anderem ist das Netzwerk miteinander kombiniert, da wir auch im Wohnbereich noch Arbeitsplätze haben.
    "...in eigener Sache: Kommentare ::: Kommentarabos und Abmahnungen" vollständig lesen

    Linus bloggt tatsächlich...

    An vielen Stellen gab's das Gerücht, dass Linus Torvalds jetzt bloggt. Bestätigt wurde das z.B. via Karl-Tux-Stadt im Linux-Magazin. Ganz sicher war ich mir, nach einem Satz im Interview von Networkworld, auf welches ein Kommentator bei Robert hinwies: "First of all, Linus, is this blogger really you? Yes, yes, it's me. A 'fake Linus' would hopefully try to be entertaining." (Ja, ich bin's der bloggt ein gefälschter Linus würde hoffentlich versuchen unterhaltsam zu schreiben. [sinngemäß übersetzt]) Nach allem was ich über Linus und weiß und gelesen habe, passt das. Für diejenigen, die nicht wissen wer Linus Torvalds ist, Linus wollte ursprünglich nur einen Terminalemulator schreiben um sich effizienter an der UNI in UNIX einwählen zu können. Daraus entstand jedoch 1991 die erste Version des Betriebssystems Linux, mehr zur Geschichte von Linux gibts bei Wikipedia. Zur Zeit noch immer online ist seine erste Homepage, der man schon ansieht, dass er nicht der Typ ist, der ich sonderlich um seine Selbstdarstellung kümmert. Die Seite ist seit 1997 unverändert im Netz. Die ersten Beiträge in seinem Blog sind buntgemischt, er hat sich noch nicht definitiv entschieden in wie weit er bloggen möchte. Bislang gibts Beiträge über den Hund, die anstehenden Wahlen in den USA, ein Stückchen Software, was runtergeladen werden kann und ein bisschen Technisches. Seine technischen Texte lesen sich so, wie andere von ihm veröffentlichte Beiträge aus Mailinglisten, ein weiterer Hinweis, dass er selbst bloggt.

    Webseiten-Relaunch Teil II

    Ich habe vor kurzem unter anderem den Relaunch des Südkuriers erwähnt. Nach einem Kommentar schaute ich mir das Ganze nochmal etwas genauer an:

    Validator zum Südkurier-Webauftritt

    Wie leider viele Seiten, sind auch diese nicht valide, hier allerdings sehr sehr deutlich: 635 Errors, 188 warnings

    Ein Blick in den Code:

    <div class="all"> <div class="content_container"> <div class="box1 head_schattenbox"> <div class="intro"> <div class="cell1"> <div class="cell2"> <div class="cell3"> </div> </div> </div> </div> <div class="head_schattenbox_content_schatten_li"> <div class="head_schattenbox_content_schatten_re"> <div class="head_schattenbox_content"> <div class="topnavi_container"> <div class="topnavi">

    Dieser Code zeigt überdeutlich, dass hier ein keineswegs durchdachtes Layout umgesetzt wurde, hier werden Tabellen imitiert, und dargestellt, die gar keinen Inhalt haben.
    Sonstiges zum Code
    Meines Erachtens wird im Web grundsätzlich viel häufiger JavaScript genutzt, als nötig und sinnvoll. Wenn es jedoch eingesetzt wird, dann wäre es sinnvoll es so zu nutzen, dass es für möglichst viele Besucher funktioniert, das heißt:
    • onmouseover="reset_timer();"
      • Funktionen, die sich auf die Maus beziehen, wie in diesem Fall beim Südkurier, sind ausschließlich auf die Navigation per Maus bezogen
    • onfocus
      • Funktionen, die sich darauf beziehen, ob etwas im Fokus steht beziehen auch den über Tastatur entstehenden Fokus mit ein und sind daher von einer größeren Zahl Besuchenr nutzbar.

    Verhältnis Quellcode zu relevantem Text

    Es gibt einen Automat, der prüft wie das Verhältnis von Quellcode zu relevantem Text aussieht. Damit lässt sich die Ladezeit einer Seite verbessern, oft ist es Hinweis auf die Qualität des Codes. Generell ist bei Content-Managementsystem (CMS, Redaktionssystem) das Verhältnis immer schlechter, als bei handgeschriebenem Code, da einige Möglichkeiten berücksichtigt werden müssen, die nicht immer gebraucht werden. Auch WordPress ist ein solches System, bei dem das Verhältnis von Code zu Text nicht ganz optimal ist. Die Startseite dieses Blogs z.B. bringt folgendes Ergebnis:

    http://miradlo.net/bloggt/

    Gesamtgröße in Bytes: 78799 (ohne Bilder, Skripte, CShref="http://miradlo.net/bloggt/index.php?3206-s"">http://miradlo.net/bloggt/ Gesamtgröße in Bytes: 78799 (ohne Bilder, Skripte, CSS, also nur der ausgegebene HTML-Code) Anteil Text: 44138 Bytes Prozentualer Textanteil am Code: 56.01 % Bei von Hand geschriebenen Seiten ist der Anteil meist besser, ansonsten kommt es natürlich noch auf die Seite an. Ein einzelner Blogbeitrag hat einen schlechteren Wert als die Startseite, die sehr viel Text enthält, z.B: http://miradlo.net/bloggt/tipps/webstandards-und-webseiten-relaunch hat nur noch einen Textanteil von 34.59 %

    http://www.suedkurier.de/

    Gesamtgröße in Bytes: 174531 (ohne Bilder, Skripte, CSS, also nur der ausgegebene HTML-Code) Anteil Text: 18048 bytes Prozentualer Textanteil am Code: 10.34 % Ein so geringer Anteil spricht allerdings dafür, dass es deutliches Verbesserungspotenzial gibt.

    Weiteres bezogen auf verschiedene Anwender

    Es gibt noch immer einige Nutzer des Internet Explorers 6, dieser kann die Schriftgröße nur dann ändern, wenn sie nicht in Pixeln angegeben wird. Um auch Besuchern mit diesem Browser die Chance zu geben, die Schriftgröße anzupassen, sollte es die folgende Definition nicht geben:
    • font-size:12px;
    Diejenigen, die andere Browser nutzen, können die Schrift zwar vergrößern, sehr viel Lesbares bleibt jedoch nicht, denn einiges geht durch die fixen Definitionen der Gesamtbreite, bzw. der einzelnen Bereiche dann verloren und ist somit auch nicht lesbar, z.B. durch diese Definition der Gesamtseitenbreite:
    • width: 855px;
    Diese feste Breite ist sehr ungewöhnlich, denn wie schon Oliver in seinem Kommentar erwähnte, wer nur eine kleine Auflösung hat sieht nicht die ganze Seite.

    Fazit Relaunch des Südkuriers

    Aus meiner Sicht wirkt diese Neugestaltung alles andere als professionell. Schade auch, dass manches keinen Kommentar im hauseigenen Blogartikel wert ist. Nein, ich meine nicht, dass niemand den letzten Artikel kommentierte, das habe ich nicht erwartet. Mein Hauptkritikpunkt steht in deren Blog auch als Kommentar, nämlich dass der regionale RSS-Feed nicht funktioniert. Dazu gab es keine Antwort, aber "welch ein Zufall" am nächsten Tag gabs wieder Nachrichten von dort... ;-) Ich halte den RSS-Feed auf Seiten, die sich sonst kaum an Webstandards halten für besonders wichtig, denn sie ermöglichen einigen Besuchern die Informationen zu bekommen, selbst wenn die Webseite selbst für sie unzugänglich ist. Schade, dass auch der Südkurier nur die jeweiligen Anreißer der Artikel im Feed veröffentlicht.href="http://miradlo.net/bloggt/index.php?273-s"">http://miradlo.net/bloggt/tipps/webstandards-und-webseiten-relaunch hat nur noch einen Textanteil von 34.59 %

    http://www.suedkurier.de/

    Gesamtgröße in Bytes: 174531 (ohne Bilder, Skripte, CSS, also nur der ausgegebene HTML-Code) Anteil Text: 18048 bytes Prozentualer Textanteil am Code: 10.34 % Ein so geringer Anteil spricht allerdings dafür, dass es deutliches Verbesserungspotenzial gibt.

    Weiteres bezogen auf verschiedene Anwender

    Es gibt noch immer einige Nutzer des Internet Explorers 6, dieser kann die Schriftgröße nur dann ändern, wenn sie nicht in Pixeln angegeben wird. Um auch Besuchern mit diesem Browser die Chance zu geben, die Schriftgröße anzupassen, sollte es die folgende Definition nicht geben:
    • font-size:12px;
    Diejenigen, die andere Browser nutzen, können die Schrift zwar vergrößern, sehr viel Lesbares bleibt jedoch nicht, denn einiges geht durch die fixen Definitionen der Gesamtbreite, bzw. der einzelnen Bereiche dann verloren und ist somit auch nicht lesbar, z.B. durch diese Definition der Gesamtseitenbreite:
    • width: 855px;
    Diese feste Breite ist sehr ungewöhnlich, denn wie schon Oliver in seinem Kommentar erwähnte, wer nur eine kleine Auflösung hat sieht nicht die ganze Seite.

    Fazit Relaunch des Südkuriers

    Aus meiner Sicht wirkt diese Neugestaltung alles andere als professionell. Schade auch, dass manches keinen Kommentar im hauseigenen Blogartikel wert ist. Nein, ich meine nicht, dass niemand den letzten Artikel kommentierte, das habe ich nicht erwartet. Mein Hauptkritikpunkt steht in deren Blog auch als Kommentar, nämlich dass der regionale RSS-Feed nicht funktioniert. Dazu gab es keine Antwort, aber "welch ein Zufall" am nächsten Tag gabs wieder Nachrichten von dort... ;-) Ich halte den RSS-Feed auf Seiten, die sich sonst kaum an Webstandards halten für besonders wichtig, denn sie ermöglichen einigen Besuchern die Informationen zu bekommen, selbst wenn die Webseite selbst für sie unzugänglich ist. Schade, dass auch der Südkurier nur die jeweiligen Anreißer der Artikel im Feed veröffentlicht.

    Webstandards und Webseiten-Relaunch

    Am Barcamp-Wochenende in Stuttgart hielt ich ja noch eine Diskussionsession zu Webstandards. Die überwiegende Meinung dort war klar für Webstandards und es ging in der Diskussion eher darum, warum es so lange dauert bis neue Standards vom W3C veröffentlicht werden. Viele der Webseiten und Blogs, die ich lese halten das Thema ebenfalls für wichtig, z.B. Dieter Welzel. Ich bin kein Fan von Videos und blinkenden Klicki-Bunti-Seiten, deshalb denke ich manchmal schon, dass eigentlich alles schon recht gut ist und viele Seiten standardkonform sind. "Webstandards und Webseiten-Relaunch" vollständig lesen

    Eindrücke vom Barcamp Stuttgart

    Am Wochenende war die miradlo Mannschaft auf dem Barcamp Stuttgart. Ich berichte erst jetzt darüber, da wir zuhause eine Baustelle haben und ich die Telekom- Zuleitung abklemmen musste. Wir waren also nicht nur auf dem Barcamp sondern hatten vor- und danach keinen Internet Zugang.

    Was hab ich am Barcamp so gemacht?

    Zuerst habe ich natürlich versucht meinen kleinen Asus Eee 900 PC an das Wireless anzubinden. Ich habe ja schon darüber geschrieben, dass ich ein Gentoo auf der Maschine installiert habe. Blöderweise kann meine Netzwerkkonfiguration nur mit einer ESSID, die keine Bindestriche (-) beinhaltet, umgehen. Und da gab es nur einen Accesspoint der ohne Bindestriche auskommt. Den Fehler muss ich demnächst dringend korrigieren. Nach diesen ersten zehn Minuten des Schocks und des Zitterns hatte ich das langersehnte Internet wieder, zumindest in einem Raum. (Deshalb auch kein Kommentar während des Camps, da meine Sessions nicht in dem Raum stattgefunden haben ;) ) So jetzt aber zu den Sessions.

    Learning und Collaboration in virtuellen Welten

    Eine Session, die mich auf neue Ideen gebracht hat, war die von Sophie Lee. Sie zeigte, wie IBM im Second Life Schulungen durchführt. Mit den Schulungen sollen die verteilten Teams, also Teams die an verschiedenen Orten der Welt lokalisiert sind, die Zusammenarbeit erlernen. Jedes Teammitglied erhält dabei einen Avatar und wird zusammen mit seinen Kollegen auf Inseln gebracht. Dort müssen sie diverse Aufgaben in Teamarbeit erledigen. Beispielsweise muss ein Team sich in zwei Gruppen aufteilen. Die eine Gruppe hat die Aufgabe eine möglichst schöne Burg zu designen. Die zweite Gruppe muss diese Burg bauen. Die Designergruppe muss der Baugruppe beschreiben wie die Burg auszusehen hat. Hierzu können sie via Chat oder mit Voice over IP zusammen kommunizieren. Hierbei können die Schwierigkeiten des globalen Zusammenarbeitens erkannt und die nötigen Skills erlernt werden. In der Diskussion fragten wir uns, ob diese Art des Lernens wirklich zielführend ist. Weiterhin hatten einige Teilnehmer Zweifel daran, ob hierfür im Arbeitsleben Zeit vorhanden ist. Ich glaube, gut eingesetzt, kann man mit diesem Medium virtuell verteilte Teams etwas mehr zusammen führen und somit die Zusammenarbeit fördern.

    Organisation von Webinhalten. Sammeln, verteilen mit moderierter Diskussion

    Bei einer anderen Session wurde zootool vorgestellt. Die Idee dahinter ist, dass man zwar seine Webcontents irgendwann einmal gefunden hat, jedoch sehr häufig das Problem hat dass man sie nicht wiederfindet. Den Ansatz von Zootool finde ich wirklich gut. Man kann seine Bilder, Texte usw. auswählen und nach verschiedenen Kriterien sortieren. Wir diskutierten darüber welche Arten der Suche und Darstellung für die Wiederauffindung von Elementen benötigt werden. Zootol ist als Studienarbeit entstanden. Der Entwickler hat ein wirklich tolles Tool in drei Monaten gezaubert. Respekt! Das Thema Auffinden von Inhalten ist sehr vielschichtig. Wie können die Verweise geordnet werden? Bookmarks sinds nur sehr begrenzt. Grafische Darstellungen (z.B. als Mindmaps oder als Systemlandschaften) halte ich für geeigneter, da der Mensch nunmal einfacher mit Bildern umgehen kann. Ich glaube hier ist noch viel Potential für Ideen und sinnvolle Werkzeuge.

    Einsatz von Web 2.0 Werkzeugen im Unterricht

    Die letzte Session hatte ich selbst moderiert. Thema war der Einsatz von Web 2.0 Werkzeugen im Unterricht. Ich berichtete über meine bisherigen Erfahrungen und wie FHs und Schulen meines Wissens mit diesem Thema umgehen. Wir diskutierten über Einsatzmöglichkeiten, Risiken und Schwierigkeiten. Einig waren wir uns dabei, dass der Einsatz von Web 2.0 Werkzeugen nur dann sinnvoll ist, wenn Lehrer und Schüler ihre Arbeitsweisen ändern. Die Schüler müssen selbstständig und in Gruppen gemeinsam die Ziele erreichen. Die Lehrer müssen bereit sein die Kontrolle abzugeben. Die Teilnehmer meiner Session hatten bereits gute Erfahrungen mit Gruppenarbeiten. Die Risiken, dass sich z.B. die Faulenzer mit der Gruppe durchschummeln, sind recht gering. Man muss jedoch die Gruppen kontrollieren und, falls man den Unterricht öffentlich präsentiert, muss man darauf achten dass keine Rechtsverletzung stattfindet. Die Ansätze sind jedoch ziemlich spannend zum Einsetzen. Es ist zwar für den Lehrer etwas anstrengender, aber die Ergebnisse und der Lernerfolg können deutlich größer sein als beim Frontalunterricht. Daniel, einer der Teilnehmer berichtet recht ausführlich und lässt eigene Gedanken einfließen.  Die noch die schnell zusammengesteckte Präsentation, die ich für die Einleitung verwendete, folgt in Kürze.

    TYPO3 für Einsteiger

    Am Sonntag war ich bei der Einführungsveranstaltung zu Typo 3 installieren. Der Präsentator zeigte schnell und sehr kompetent innerhalb von 45 Minuten wie man Typo 3 installiert und die ersten Templates schreibt. Natürlich konnte das nur eine Einführung sein. Typo 3 ist ein extrem mächtiges Werkzeug und entsprechend komplex zu verwalten. Ich bin mir wieder einmal deutlich sicherer dass sich Typo 3 erst bei wirklich komplexen und großen Projekten mit vielen Redakteuren usw. eignet. Natürlich kann man es für alles einsetzen, wenn man es kennt. Jedoch bringt man hiermit seine Kunden in Abhängigkeiten, die sie eigentlich gar nicht benötigen. Wenn ein Kunde nur seine Öffnungszeiten ändern will, ist Typo 3 höchstwahrscheinlich der Overkill. Aber sei es drum. Die Einführung hat mir einen sehr guten Eindruck von der Komplexität gegeben und ich danke Harald dafür!

    Zend Framework / PHP

    Meine zweite Session bezog sich auf das Zend Framework. Es wurde der Umfang und der Einsatz des Zend Frameworks beschrieben. Der Moderator ist begeisterter User des Zend Frameworks und hat es geschafft, dass ich mich ebenfalls mit diesem Framework beschäftigen möchte. Vielen Dank für die Einführung! Den Rest vom Tag verbrachte ich mit losen Diskussionen. Das finde ich bei Barcamps eigentlich immer wieder das Schönste. Man muss nicht zu jeder Session und man findet dutzende interessante Gesprächspartner. Links zu weiteren Berichten übers Barcamp Stuttgart gibts im Wiki. Die Organisation empfand ich wieder einmal sehr gut. Das Orgateam hat tolle Arbeit geleistet und so das Barcamp zu einem wirklich tollen Event gemacht. Auch hierfür möchte ich mich bedanken.
    tweetbackcheck