Internet 2002 - Kritische Bestandsaufnahme und Zukunftsperspektiven (LABO 08/2002)

Dr. Torsten Beyer, Dr. Beyer Internet-Beratung


In nur wenigen Jahren hat sich das Internet als Massenmedium mit nun 500 Millionen Nutzern weltweit etabliert. Viele Prognosen und Versprechungen haben sich zwar nicht erfüllt und so manches Unternehmen der "New Economy" musste inzwischen Insolvenz anmelden, dennoch ist das Medium Internet heute aus der Arbeitswelt nicht mehr wegzudenken. Der folgende Beitrag versucht eine aktuelle Bestandsaufnahme der Möglichkeiten und Grenzen und gibt einen Ausblick auf die zukünftige Entwicklung des Web.

Die Internet-Euphorie des Jahres 2000, die sich auch in einem ungeheuren Boom an den Aktienmärkten gezeigt hat, ist nach dem Platzen zahlreicher Luftblasen und dem Scheitern vieler unsinniger Geschäftsmodelle im Jahre 2001 in einen großen Pessimismus übergegangen, der inzwischen genauso übertrieben ist wie die anfängliche Überschätzung der Möglichkeiten.

Fakt ist, dass das Medium Internet aus dem Berufsalltag kaum mehr wegzudenken ist und auch von vielen Menschen in der Freizeit genutzt wird. Es hat heute einen festen Platz neben anderen Medien wie gedruckten Publikationen, Fernsehen, Radio, Telefon und Fax eingenommen und sich etabliert. Welche Möglichkeiten zur Kommunikation und Informationsbeschaffung man letztlich wählt, hängt von den Fragestellungen und den persönlichen Vorlieben ab.

Die anfängliche Internet-Euphorie ging davon aus, dass alleine durch das Internet neue Umsätze generiert werden. In Wahrheit kam es nur zu einer Verschiebung wie das Beispiel Buchhandel zeigt, denn alleine durch die Existenz von Online-Buchhandlungen werden nicht zwangsläufig mehr Bücher verkauft.

Ein zweiter Fehler vieler Unternehmen war die Annahme, dass bestehende Arbeits- und Vertriebsstrukturen in kurzer Zeit komplett umgestellt würden. Dies wurde insbesondere vielen Online-Marktplätzen wie beispielsweise dem hier noch im August 2000 als "Internetseite des Monats" vorgestellten "eLabsEurope" zum Verhängnis.

Viele Entwicklungen waren für Kenner des Internet, aber auch für jeden Nutzer mit etwas gesundem Menschenverstand vorhersehbar. Aber viele Geldgeber haben sich blenden lassen und viel Geld verloren. Geld, das jetzt für die Umsetzung seriöser und solider Geschäftsideen fehlt, weil viele Investitionen in Internet-Projekte ganz eingestellt oder zumindest aufgeschoben wurden.


Firmen-Homepages

Dabei ist ein ansprechender Internet-Auftritt heute für jedes überregional tätige Unternehmen eine absolute Pflicht, und man wird in der Laborbranche kaum noch jemanden finden, der diesen Schritt nicht schon vor längerer Zeit vollzogen hat.

Nur ist Homepage nicht gleich Homepage! Im Laufe der vielen Besprechungen der Webauftritte von Unternehmen, Institutionen, Messen oder Portalen im Rahmen der Serie "Internet-Seite des Monats" haben sich doch einige Trends abgezeichnet. Auch kann man bei vielen Web-Seiten immer die gleichen Fehler feststellen, die sich über die Jahre hartnäckig halten und eine bessere Resonanz auf einen Internet-Auftritt verhindern. Viele Firmen wissen oft gar nicht, was sie mit ihrer Homepage "anrichten", denn für einen potentiellen Kunden ist der erste Kontakt mit einem Unternehmen heute immer öfter der Aufruf der Webseite. Was dort in den ersten Sekunden und Minuten passiert, prägt das Bild eines Unternehmens genauso wie dies beim ersten Eindruck beim Zusammentreffen zweier Menschen ist. Und im Internet ist ein konkurrierender Anbieter mit einem vielleicht besseren Webauftritt nur einen Mausklick entfernt und ein (potentieller) Kunde schnell vielleicht für immer verprellt!

Aber auch bestehenden Kunden muss auf einer Homepage etwas zur Kundenbindung geboten werden wie beispielsweise Tipps zum Umgang mit Geräten, Softwareupdates, einfache Bestellmöglichkeiten, Kundendienst etc.

Die Hauptfehler bei Firmenpräsenzen und kommerziellen Webseiten kann man folgendermaßen zusammenfassen:

  • Selbstgebastelte Seiten ohne Beachtung des Corporate Design - solche Seiten wirken unprofessionell und dies wird dann auch mit dem Unternehmen assoziiert!
  • Lange Ladezeiten infolge Überfrachtung der Seiten mit Grafiken, Java-Applets oder durch Wahl eines Providers mit schlechter Internetanbindung - nicht jeder Nutzer hat eine Standleitung ins Internet und Zeit ist Geld!
  • Geringer Informationsgehalt, unvollständige Produktinformationen, mangelnde Aktualität, langsame/keine Beantwortung von Anfragen - Sie vergeuden die Zeit der Besucher!
  • Missachtung von Webstandards, so dass Seiten mit anderen Browsern als dem Internet Explorer nicht richtig oder gar nicht nutzbar sind - Sie verärgern oder verlieren potentielle Kunden!
  • Erstellung von Seiten, die von Suchmaschinen nicht oder nur schlecht erfasst werden können - Sie gewinnen wenige/keine Neukunden über das Internet!
  • Aufbau von Barrieren (Login, Zwangs-Registrierung, Zertifikate) - Sie erwecken den Eindruck, dass Zugriffe unerwünscht sind!

Viele dieser Fehler kann man schon bei der Konzeption des Internetauftritts oder im Vorfeld eines Updates vermeiden oder zumindest minimieren, die Besucher werden es Ihnen danken! Aber auch bestehende Seiten sollten von Zeit zu Zeit einer externen Schwachstellenanalyse unterzogen werden. Solche Dienstleistungen werden aber kaum nachgefragt, da viele Unternehmen davon überzeugt sind, dass ihr Webauftritt perfekt ist - wobei perfekt oft gleichgesetzt wird mit perfektem Layout. Über die Güte einer Seite entscheiden aber letztlich die Besucher und nicht die Werbestrategen und Marketingverantwortlichen! Eine Internetseite dient zur Vermarktung von Produkten und Dienstleistungen eines Unternehmens sowie zur Kundenbindung und zum Support, ist aber selbst kein Produkt. Oft könnten mit wenig Aufwand die Zugriffszahlen und die Zufriedenheit der Besucher deutlich gesteigert werden, dieses Potenzial bleibt aber leider viel zu oft ungenutzt.

Dass es auch anders geht, zeigen unter anderem viele Beispiele in der Reihe "Internet-Seite des Monats", die hier in den letzten Jahren vorgestellt und allesamt auch unter https://www.analytik-news.de archiviert sind. In Teilbereichen gab es zwar auch hier manchmal Dinge zu bemängeln, aber die perfekte Homepage gibt es nicht. Wichtig ist, die Seiten regelmäßig zu überprüfen, ob sie noch dem Stand der Technik entsprechen, und Kundenwünsche oder Beschwerden bei zukünftigen Updates zu berücksichtigen.

Trotz dieser massiven und vielleicht auch manchmal etwas überspitzten Kritik ist und bleibt das Internet ein faszinierendes Medium ohne wenn und aber, das viele nicht mehr missen wollen wegen des schnellen Zugriffs auf Informationen und Daten weltweit und der schnellen und unkomplizierten Kommunikation per E-Mail.

Die Hauptprobleme bei der kommerziellen Internet-Nutzung liegen heute überwiegend auf Seiten der Autoren von Webseiten. Denn aus schlechten Seiten kann auch die beste Suchmaschine keine guten Inhalte machen! Es hat sich zwar schon einiges gebessert seit den stürmischen Anfangszeiten Mitte der Neunziger Jahre, so lange allerdings bei der Erstellung von Webseiten so viele Freiheiten und auch Manipulationsmöglichkeiten bestehen, wird sich an oft unbefriedigenden Suchresultaten nur wenig ändern. Suchmaschinen wie Google und Teoma haben daher einen anderen Ansatz für bessere Suchresultate entwickelt. Dort ist die Linkpopularität (die gleichbedeutend mit der Zahl der Verweise von anderen Homepages auf eine Seite ist) das wichtigste Kriterium zur Beurteilung der Relevanz einer Seite für eine bestimmte Suchanfrage. Da anzunehmen ist, dass nur auf relevante, aktuelle und gute Seiten von vielen anderen "verlinkt" wird, erhält man bei diesem Ranking-Verfahren im allgemeinen die besten Suchergebnisse. Weitere Bestrebungen gehen dahin, die User-Bewertung einer Seite als weiteres Kriterium für die Relevanz eines Treffers hinzuzuziehen, was sicher noch bessere Ergebnisse liefern wird, vorausgesetzt, man kann Manipulationen verhindern. Denn eines ist auch klar: das Internet ist wie ein Basar, das heißt jeder Betreiber einer Webseite will Besucher anziehen. Einige stellen sich dabei dilettantisch an, weil sie ihre Seiten so erstellen (lassen), dass sie gar nicht gefunden werden können oder Seiten ohne aktuelle, interessante Inhalte ins Netz stellen. Andere wissen um die Möglichkeiten und generieren so mit wenig (finanziellem) Aufwand Zugriffe und damit vielleicht auch Umsatz. Es gibt natürlich auch schwarze Schafe, die Suchmaschinen bewusst manipulieren wollen, um ihre in der Regel schlechten Seiten in den Trefferlisten nach oben zu bringen.

Es obliegt also jedem Nutzer, schon beim ersten Aufruf einer Seite zu erkennen, mit welcher der drei Gruppen er es zu tun hat. Mit einer gewissen Erfahrung ist dies oft relativ schnell möglich und man sollte mit dem Mauszeiger die richtige Entscheidung treffen und diese Angebote meiden, dann wird das Web vielleicht in einigen Jahren sauberer und die gefundenen Informationen besser sein. Denn letztlich zählen nur Zugriffszahlen und zufriedene Nutzer!

Die Informationsfülle im World Wide Web wächst momentan nicht mehr so stark wie in der Vergangenheit - sicher auch ein Resultat der vielen Firmenpleiten. Ende 2001 waren 36 Millionen Websites online und im Dezember 2001 schrumpfte diese Zahl erstmals gegenüber dem Vormonat um über 180.000 Seiten. Auch die Dynamik, das heißt die Änderungen auf den bestehenden Seiten, geht zurück. Allerdings hat ein Hyperlink momentan nur eine Halbwertszeit von 55 Monaten wie amerikanische Wissenschafter kürzlich herausfanden. In 55 Monaten würden also von allen heute gesetzten Links die Hälfte ungültig sein, wenn die Seitenbetreiber keine Linkprüfung und -aktualisierung vornehmen würden. Leider tun sie das in viel zu geringem Maße, was den Nutzeffekt des Web zukünftig weiter reduzieren wird, denn nichts ärgert einen Besucher mehr als ungültige externe oder (noch schlimmer) interne Links! Moderne Suchmaschinen gehen heute sogar dazu über, das Verhältnis von gültigen zu ungültigen Links auf einer Seite als Bewertungskriterium heranzuziehen, denn viele sogenannte "broken links" dokumentieren die schlechte Pflege einer Homepage und werfen somit auch ein schlechtes Licht auf den Betreiber. Ich will zwar nicht so weit gehen wie ein bekannter amerikanischer Internet-Guru, der sagt, dass das World Wide Web zu 80 bis 90 Prozent aus "Datenmüll" besteht, allerdings wenn nichtssagende und fehlerhafte Seiten sowie unvollständige, veraltete und falsche Informationen gemeint sind, dann ist man vielleicht gar nicht so weit weg von dieser Zahl!

Die Kunst besteht nun für den Nutzer ganz einfach darin, die relevanten, guten Informationen herauszufiltern. Dazu benötigt man allerdings Zeit, ein gutes Firmen-Intranet (in dem interne und externe Informationen aufbereitet werden), eine gute "Favoriten"-Sammlung im Browser und auch ständige Schulungen über neue und interessante Seiten, die für ein Unternehmen relevant sind. Es gibt solche Seiten zuhauf, nur stellen wir in unseren Schulungen immer wieder fest, dass sie bei der Mehrzahl der Teilnehmer völlig unbekannt sind. Die Ergebnisse von Internet-Recherchen können im Rahmen eines ein- oder zweitägigen Kurses mit Übungsmöglichkeiten am PC nachhaltig verbessert werden, denn effizient recherchieren heißt gewusst wie und vor allem wo!


E-Mail-Nutzung

Der elektronische Brief ist mit Sicherheit der am weitesten verbreitete und auch akzeptierteste Internet-Dienst. Heute werden bereits weitaus mehr Mails als gedruckte Briefe verschickt, weil es kostengünstiger ist und weitaus schneller geht.

Allerdings hat auch diese Entwicklung zwei Schattenseiten. Zum einen nimmt der Versand unerwünschter Mails (sogenannte „Spam-Mails") immer stärker zu und führt zu einem immer größeren Verdruss der Nutzer. Zwar können Mailfilter und Firmen-Firewalls das Problem etwas mildern, allerdings kosten die unerwünschten Mails immer mehr Zeit und auch Nerven. In Amerika liegt der Spam-Anteil bei über 30%, so dass sich in jüngster Vergangenheit vermehrt staatliche Stellen dieses Problems mit massenhaften Abmahnungen und Sperrung von Mail-Servern annehmen. In Europa ist das Problem noch nicht so gravierend, allerdings ist die Rechtsauffassung in Deutschland und der Europäischen Union uneinheitlich, was als Spam anzusehen ist und welche Schutzmöglichkeiten der Nutzer hat.

Das zweite Mailproblem ist oft hausgemacht, aber nicht minder problematisch: Es geht um den Verlust interner Unternehmenskultur durch mangelnde Kommunikation der Mitarbeiter. Das unternehmensinterne Mailaufkommen hat teilweise so gravierende Ausmaße angenommen, dass inzwischen vermehrt Regeln für den Gebrauch interner Mails aufgestellt werden. So hat sich der Stadtrat von Liverpool kürzlich zu einer ungewöhnlichen Maßnahme entschlossen: Die Mitarbeiter der Stadtverwaltung dürfen zukünftig Mittwochs nicht mehr per Mail kommunizieren! Damit soll die verbale Kommunikation wieder gefördert werden. Außerdem soll die massenhafte Versendung von Kopien belangloser oder nur für wenige Mitarbeiter relevanter Nachrichten an ganze Abteilungen eingeschränkt werden, ganz zu schweigen von unternehmensinternen Privatmails.

Verantwortungsvoll eingesetzt ist die E-Mail ein hervorragendes Instrument zur schnellen Kommunikation oder zum Datenaustausch. Man sollte es aber nicht übertreiben, da sich manche Dinge oft schneller und einfacher durch den Griff zum Telefonhörer oder ein persönliches Gespräch regeln lassen, oder durch Videokonferenzen über das Internet, die heute schon von internationalen Konzernen zur transatlantischen Kommunikation eingesetzt werden. Allerdings sind die Kosten für kleinere und mittlere Unternehmen wegen des erforderlichen schnellen Internet-Zugangs heute oft noch ein Grund dagegen, technisch ist dies kein Problem mehr.


Zweiklassengesellschaft

Unsere Gesellschaft droht sich heute schon in die beiden Fraktionen „Onliner" und „Offliner" zu spalten. Alleine in Deutschland ist jeder Zweite "offline" und nutzt das Internet nicht. Insbesondere vielen sozial schwachen, weniger gebildeten oder älteren Menschen bleibt der Zugang verwehrt, weil ihnen entweder die finanziellen Mittel fehlen, weil sie gar keinen PC besitzen, oder weil sie ganz einfach den Anschluss an die galoppierende Entwicklung der EDV- und Kommunikationstechnik verpasst haben. Auch wissen viele Menschen wegen fehlender Aufklärung und Schulungen gar nicht, was sie mit dem Medium Internet überhaupt anfangen sollen. International ist das Problem noch gravierender, da der Anteil der „Offliner" bei einer Gesamtbevölkerungszahl von über 6,2 Milliarden und nur 500 Millionen „Onlinern" vorwiegend in den Industrieländern noch weitaus höher ist. Und Abhilfe ist hier leider momentan kaum in Sicht.


Fazit:

Zusammenfassend kann man sagen, dass Internet-Technologien weitaus mehr Vorteile als Nachteile bieten. Dies setzt allerdings den verantwortungsvollen Umgang mit dem Medium und die verstärkte Schulung und Information der gesamten Bevölkerung über die Möglichkeiten des Internet voraus.

Auch bei der Erstellung von Web-Seiten müssen durch Anpassung der entsprechenden Webstandards Rahmenbedingungen für eine bessere Strukturierung und Qualitätskontrolle der Daten geschaffen werden. Der Erfolg und die gegenüber dem World Wide Web viel besseren Suchresultate von kommerziellen Datenbanken wie "Beilstein" oder "Chemical Abstracts" beruhen nicht zuletzt auf der streng definierten Datenstruktur und der redaktionellen Prüfung. Die Freiheiten im World Wide Web bieten zu viel Platz für Manipulationen oder führen dazu, dass viele Seiten so erstellt werden, dass sie von Suchmaschinen schlecht oder nicht indexiert werden können und somit nicht zu finden sind.

Die Auswüchse und Missbrauchsmöglichkeiten der Anonymität des Zugangs und die nahezu unbegrenzte Freiheit beim Publizieren von Inhalten müssen durch internationale Abkommen und Vereinbarungen eingedämmt werden. Nationale Gesetze helfen bei einem globalen Medium wie dem Internet allerdings nur wenig. Und wie schwierig solche Vereinbarungen sind, sieht man ständig bei dem zähen Ringen der Europäischen Union oder der Vereinten Nationen.

Schließen möchte ich mit folgendem Zitat des Firmenchefs von Intel, Andy Grove, aus dem Jahre 1996, das auch sechs Jahre danach aktueller denn je ist und den aktuellen Zustand des Internet sehr treffend charakterisiert. Es lautet:

"Die größte Bedrohung ist derzeit auch unsere größte Chance: das Internet. Es wird die Zukunft der Kommunikation bestimmen. Darin stecken gigantische Möglichkeiten. Wenn wir es allerdings nicht angemessen angehen, dann fallen wir zurück. Dann wird sich diese Entwicklung gegen uns wenden."

  • zurück
  • Druck

Abonnieren:

  • RSS Feed abonnieren

Empfehlen:

  • Twitter
  • Facebook
  • Google+
  • XING