#!/usr/bin/perl print qq§Content-Type: text/html §;



Inhaltsverzeichnis
1 Einführung
2 Die "Advanced Research Projects Agency"
2.1 Militärischer Ursprung
2.2 Von der Idee "packet switching" zum ARPANET
2.3 Über das TCP/IP-Protokoll zum Internet
3 Nützliche Anwendungen
3.1 Telnet
3.2 FTP
3.3 Email
4 Beachtenswerte Netze
4.1 Das Usenet
4.2 Die weitere Entwicklung zum World-Wide-Web
5 Fazit
Anlagen
Literaturverzeichnis


1 Einführung
Wenn man die gegenwärtige Berichterstattung in den Medien verfolgt, dann hat es den Anschein als sei auf der ganzen Welt eine regelrechte Internet-Hysterie ausgebrochen.
Nicht nur auf den Visitenkarten hochrangiger Manager ist in der heutigen Zeit die Internet-Adresse vermerkt, sondern auch für den Normalanwender hat sie den Charakter eines Status-Symbols.
Dieses Phänomen spiegelt sich auch unübersehbar in der Werbebranche wieder. Dort wird dem Konsumenten kaum ein Produkt, vom Knäckebrot bis zum Reiseveranstalter, angeboten ohne in einer kleinen Zeile darauf hinzuweisen unter welcher Adresse denn das jeweilige Unter- nehmen im Internet zu finden ist.


Banken preisen ihren Kunden die Vorteile des Internet-Banking an. Es wird immer populärer, sowohl für die Banken als auch für die Kunden, 24 Stunden am Tag, sieben Tage in der Woche erreichbar zu sein, um von zu Hause aus seine Bankgeschäfte erledigen zu können.


Computersendungen, die sich mit der Thematik des Internet beschäftigen und die interes-santesten Adressen vorstellen, haben Hochkonjunktur. Das ZDF bietet gar seit zwei Jahren eine Net-Nite an, in der zwischen 1 und 3 Uhr nachts innovative Internet-Darstellungen besprochen und die attraktivsten Zielorte im Netz präsentiert werden.
Vor einigen Jahren kam es zu einer Gründungswelle von sogenannten "Internet-Cafes". In diesen Einrichtungen können Internet-Interessierte gegen eine Gebühr im Internet nach Informationen suchen, mit Freunden ein Online-Gespräch ("chatten") führen oder einfach nur aus Interesse die vielfältigen Angebote des Netzes nutzen ("surfen"). Heute findet man solche Cafes in nahezu jeder mittelgroßen Stadt.


1996 wurde vom Bundesministerium für Bildung und Forschung und der deutschen Telekom AG sowie in Zusammenarbeit mit anderen Unternehmen der Kommunikationsindustrie die Initiative "Schulen ans Netz" ins Leben gerufen. Zielsetzung dieser Initiative ist die Not-wendigkeit schnellstmöglich allen deutschen Schulen den Zugang zum Internet zu ermöglichen.
Angesichts der vorgestellten Beispiele muß man die Ursachen für den sprunghaften Internet-Boom hinterfragen.
Ein gewichtiger Grund für diese Entwicklung ist wohl ist Einführung eines Hypertextsystems mit graphischer Benutzeroberfläche, dem World-Wide-Web (WWW), im Jahre 1991.
Da das Internet jedoch keine Einrichtung, keine Institution ist, die erst in den letzten Jahren ihr Produkt, sprich: die Information, anbietet, ist es erforderlich, an die Provenienz des Internet zurückzukehren um die Entwicklung nachvollziehen zu können.

2 Die "Advanced Research Projects Agency (ARPA)"
Like distant islands sundered by the sea,
we had no sense of one community.
We lived and worked apart and rarely knew
that others searched with us for knowledge, too
But could these new resources not be shared ?
Let links be built; machines and men be paired !
Let distance be no barrier ! They set
that goal: design and built the ARPANET !
Vint Cerf, "Requiem for the ARPANET"[1]


2.1 Militärischer Ursprung
Um eines vorwegzunehmen: Einen definitiven Fixtermin zu nennen an dem das Internet entstand ist unmöglich. Unbestritten ist jedoch der militärische Ursprung des Internet.
Aufgrund der sowjetischen Erfolge in der Raumfahrttechnik der späten 50er Jahre, und der damit verbundenen amerikanischen Hysterie gegenüber dem Kommunismus wurde vom amerikanischen Verteidigungsministerium 1958 die "Advanced Research Projects Agency (ARPA)" gegründet.


Aufgabe der ARPA sollte die Forschung nach innovativen Technologien sein, wobei auch nach unkonventionellen Konzepten Ausschau gehalten werden sollte. Vom Ministerium gefördert wurden unter anderem ebenfalls die Raketentechnik, die Entwicklung neuer Materialien und Werkstoffe sowie verhaltenswissenschaftliche Forschung.


Der Computerbereich steckte Anfang der 60er Jahre, selbst in den USA, noch in den Anfängen. Er war gekennzeichnet durch den Austausch von physischen Datenträgern wie Magnetbändern und Lochkarten, die stapelweise verarbeitet wurden. Die Computer selbst wurden vor allem für aufwendige numerische Berechnungen eingesetzt.


Das wahre Potential eines Computers und die Möglichkeiten einer Nutzung nicht nur für militärische Zwecke, so zum Beispiel bei der Berechnung von ballistischen Flugbahnen und der Entwicklung von neuen Waffentypen, sondern auch einer Verwendung für Forschungszwecke im Bereich der Wissenschaft und Verwaltung, wurde bereits früh von J.C.R. Licklider erkannt.


Bereits in seinem 1960 veröffentlichten Manuskript: "Man-Computer Symbiosis"[2] beschreibt der Professor für Psychoakustik am MIT die Computervernetzung als entscheidenden Schritt für die weitere Entwicklung im Computerbereich. Der weitere Weg der Computer soll von der reinen Rechenmaschine wegführen zu einem Werkzeug für die Kommunikation zwischen Mensch und Computer, sowie zwischen Mensch und Mensch durch den Computer.


Der ARPA blieben Lickliders Visionen nicht verborgen. Um den Wissenschaftlern und Verwaltungsangestellten für die von ihr betreuten Projekten, Lickliders theoretisch beschriebene Instrumente zur Verfügung zu stellen, wurde im Jahre 1962 das Büro für informations-verarbeitende Technologien (Information Processing Techniques Office, IPTO) gegründet, deren Leiter Licklider wurde.
Das bedeutendste, des von der IPTO betreuten Projekte, war sicherlich der Aufbau eines nationalen Computernetzwerks.


Nun muß man sich vor Augen halten, daß die Computerlandschaft in der damaligen Zeit in keinster Weise mit der von heute zu vergleichen war. Der Transfer von Daten über physische Datenträger war ausschließlich auf Computer desselben Typs und/oder desselben Herstellers möglich. So war die Einführung eines Netzwerks mit einem zentralen Host bereits ein grundlegender Gedanke für die Weiterentwicklung zu einem Großflächennetzwerk.


Die mühselige und zeitaufwendige, stapelweise Verarbeitung von Lochkarten wurde durch die Einführung von sogenannten "Time-sharing-Betriebssystemen" verzichtbar.
Mehrere Benutzer an räumlich getrennten Orten konnten sich nun gleichzeitig die Rechenleistung des Hauptrechners teilen, und miteinander kommunizieren.
Als Topologie dieses Netzwerkes wurde das Sternnetz ("star network") gewählt, wobei es einen zentralen Vermittlungsknoten gibt, an den jeder andere Knoten direkt durch eine physische Verbindung angeschlossen ist.


Diese Netzwerktopologie arbeitet im sogenannten Polling-Verfahren, d.h. daß jeder angeschlossene Rechner vom Host (Zentralstation) reihum abgefragt wird, ob er senden möchte oder eben nicht. Genutzt wird dabei der (schnelle) Prozessor des Hosts. Der Aufbau dieses Netzwerkes ist recht einfach und kostengünstig, hat allerdings auch entscheidende Nachteile: Fällt eine Leitung aus, ist der betroffene Rechner vom Netzwerk getrennt. Fällt gar der Host aus, hat das gesamte Netzwerk ausgedient.


Abb. 1: Die Netzwerktopologie des Sternnetzes


Aufgrund der anfälligen Architektur dieses Netzwerkes wurde nach alternative Technologien zu anderen Netzwerktopologien geforscht.
Dabei kam der IPTO zugute, daß die US Air Force ebenfalls nach Möglichkeiten suchte ihre Kommunikationsfähigkeit und damit ihre Kommandostruktur im Falle eines sowjetischen (Atom-) Angriffs zu sichern. Demnach durfte es sich nicht, wie beispielsweise bei der Sternnetz-architektur um eine zentrale Struktur handeln, denn wenn der zentrale Server ausfallen oder gar zerstört werden würde, hätte dies den Ausfall des gesamten Netzwerks zur Folge. Somit mußte eine dezentrale Struktur geschaffen werden.


2.2 Von der Idee des "packet switching" zum ARPANET
Ein Vordenker in diesem Bereich war Paul Baran, der 1964 das "distributed network", ein spinnwebförmiges Netzwerkgebilde vorschlug. Grundgedanke dieses "verteilten Netzwerkes" war der Wegfall eines Zentralrechners - hin zu voneinander unabhängig operierenden Knotenpunktrechnern. Somit wird das Datenaufkommen im Netz gleichmäßiger verteilt.


Der entscheidende Vorteil dieser Bauweise ist jedoch die Vielzahl von redundanten Leitungen. Bei Ausfall einer Leitung gibt es noch andere Wege von einem Start- zu einem Zielrechner. So kann es nur zu einem Totalausfall des Gesamtnetzes kommen wenn jeder theoretisch mögliche Weg von A nach B ausfallen sollte oder zerstört würde.


Für dieses neuartige Netzwerk regte Baran ebenfalls eine innovative Übertragungstechnik an: Das "packet switching". Bisherige Netzwerke verwendeten Standleitungen für die Übertragung von Daten. Seine Netzwerkarchitektur war jedoch so aufgebaut, daß die Daten eine Vielzahl von möglichen Wegen nehmen konnten. Um diese Möglichkeiten auch auszunutzen lag es nahe, die zu übertragenen Daten in mehrerer kleine Pakete aufzuteilen. Dabei werden die Pakete mit einer Absender- und Empfängeradresse versehen und dann verschickt. Jedes einzelne dieser Pakete sucht sich nun anhand der Empfängeradresse eigenständig sein Ziel. Ist eine Leitung verstopft oder ausgefallen, so wählt das Paket eine Umleitung. Es ist unerheblich, ob alle Pakete denselben Weg nehmen oder ob sie zu unterschiedlichen Zeiten beim Empfänger eintreffen. Nachdem alle Pakete beim Empfänger eingetroffen sind, werden die Pakete wieder in die ursprüngliche Form zusammengesetzt. Ist ein Paket im Netz verloren gegangen, wird auch nur dieses eine Paket wieder neu verschickt. Da jeder Knotenpunktrechner im Netz die Pakete anhand ihrer Absender- und Empfängeradresse identifizieren und damit auch zum Zielrechner weiterleiten kann, ist ein Zentralrechner nicht mehr erforderlich.


Erstmals eingesetzt wurde dieses neue paketorientierte Netz unter anderem auch in Europa da Barans Vorschläge bei der IPTO zunächst auf Ablehnung stießen.


1965 wurden die von der "Societe Internationale de Telecommunications Aeronautiques (SITA)" betreuten Fluggesellschaften durch die Technik des "packet switching" miteinander vernetzt.
"Neun Knotenpunkte - Amsterdam, Brüssel, Frankfurt, Hong Kong, London, Madrid, New York, Paris und Rom - wurden mit fest gemieteten Telefonleitungen untereinander verbunden. Alle Nachrichten wurden zum jeweils nächstgelegenen Netzknoten weitergeleitet, bis der Zielflughafen erreicht war. Das SITA-Netz war ein voller Erfolg."[3]


Durch diesen Erfolg beeindruckt entschloß sich die IPTO 1966 die der ARPA angeschlossenen akademischen und militärischen Einrichtungen in den USA ebenfalls unter Verwendung des "packet switching" zu vernetzen. Ziel war das "resource sharing" - das gemeinsame Nutzen der vorhandenen Ressourcen denn Computer waren zu diesem Zeitpunkt noch eine extrem kostspielige Ausstattung. Zu diesem Zweck wird 1968 das Projekt "Resource Sharing Computer Networks" von der ARPA gefördert, in dessen Rahmen sich die "Network Working Group (NWG)" formiert.


Diese Einrichtungen verfügten jedoch über die verschiedenartigste Hardwareplattformen. Damit nicht für jeden einzelnen Computer ein spezielles Programm geschrieben werden mußte das die Paketaufteilung vornahm und die Pakete verschicken konnte, wurde die Firma Bolt, Beranek und Newman damit beauftragt für dieses Problem eine Lösung zu finden. Das Resultat dieser Problemstellung waren die "IMPīs (Interface Message Processors)". Diese kleinen Prozessoren dienten als Interface zwischen den Hostrechnern und dem Netzwerk. Somit bildeten die IMPīs das eigentliche Netzwerk, da sie für den eigentlichen Transport der Nachrichten sowie für das Aufteilen und die Kontrolle der Datenpakete verantwortlich waren.

Abb.2: Datenaustausch zwischen den Hostrechnern/IMPīs sowie IMPīs/IMPīs (vereinfachte Darstellung)



Am 1.4.1969 liefert die Network Working Group die ersten Protokollbeschreibungen und nennt sie "Requests for Comments (RFC)". In diesen "Bitten zur Stellungnahmen" wird der gegenwärtige Stand der Entwicklung offengelegt und darum gebeten, Anmerkungen einzubringen und gegebenenfalls Verbesserungsvorschläge zu machen.


Ende 1969 wurde das erste IMP, ein modifizierter Honeywell 516 Computer[4], an die Universität von Los Angeles, einem der Hauptzentren der ARPA-Forschungsstellen ausgeliefert. Wenige Wochen später folgten das Stanford Research Center, die Universität von Kalifornien in Santa Barbara und die Universität von Utah in Salt Lake City. Jene vier Forschungseinrichtungen waren die ersten die über eine weite Distanz miteinander vernetzt wurden. Die Übertragung erfolgte über fest angemietete Telefonleitungen mit einer Übertragungsrate von 50 Kbit/s. Das ARPANET war entstanden.
Um die Übertragung der Datensicherheit zu gewährleisten wurde hierbei erstmals das Prinzip des "acknowledgements" eingeführt. Dies bedeutete das jedes Paket das beim Empfänger eingetroffen war, von diesem auch bestätigt wurde. Eine Fehlerkontrolle wurde dadurch erreicht, daß man die Quersumme des Paketinhalts prüfte.


Gleichfalls neu war das "Routing". Damit sollte das korrekte weiterleiten jedes Paketes bis hin zum Zielrechner sichergestellt werden. Diese Aufgaben übernahm ebenfalls das IMP: Alle 0,7 Sekunden wurde in Abhängigkeit der Netzauslastung überprüft, welcher von den möglichen Routen der günstigste für das jeweilige Paket sein würde. Bis zur Mitte des Jahres 1971 sind bereits 15 Knotenpunkte an das ARPANET angeschlossen.


Zu Beginn unterstützte das ARPANET nur drei Dienste: Der ferngesteuerte Zugriff und die Nutzung von entfernten Computern ("terminal user remote login"- heute besser bekannt als TELNET), Informationsaustausch mittels Dateisendung sowie die Möglichkeit des entfernten Druckens ("remote printing"). Den großen Durchbruch erlebt das ARPANET anläßlich der "First International Conference on Computer Communications" in Washington D.C. im Oktober 1972. Auf dieser Konferenz wurden viele Experten und auch Privatunternehmen von der Leistungsfähigkeit des neuartigen Netzwerkes und dessen Vorteilen überzeugt. Alex McKenzie, ein Mitarbeiter der Firma Bolt, Beranek und Newman schwärmte: "This was the first public demonstration of what packet-switching could accomplish, and it made people begin to take this technology seriously."[5] Im selben Jahr wird die NWG umbenannt in die "InterNET Working Group (NWG)" deren erster Vorsitzender Vinton Cerf, ein Mitarbeiter der Universität von Los Angeles, wird. Die Konferenz war ein so großer Erfolg, daß sich im folgenden Zeitraum alle 20 Tage ein neuer Computer an das ARPANET anschloß. Ferner bestand nun von Seiten diverser Universitäten der Bedarf an kleineren lokalen Universitätsnetzen. Hier half die ARPA indem sie ihr gewonnenes Know-How an die Universitäten weitergab.


2.3 Über das TCP/IP-Protokoll zum Internet
1973 folgten die ersten Rechner außerhalb der USA (Hawaii, England und Norwegen) die sich über Satellitenverbindungen an das ARPANET anschlossen
1975, zur Zeit des Vietnamkrieges, besann sich das Militär wieder darauf das ARPANET dafür zu nutzen, wofür es gebaut worden war - dem Austausch von militärischen Informationen. So wurde im Juli die Verwaltung des ARPANET an die "Defence Communications Agency (DCA)" übergeben.


Verbindungen zum ARPANET war von nun an nur solchen Organisationen und Institutionen möglich, die sich an die konzessionierten Richtlinien der neuen Verwaltung hielten.
In der Folgezeit etablierten sich immer mehr eigenständige Netzwerke die zwar paketorientiert aufgebaut waren, jedoch innerhalb ihrer Strukturen eine unterschiedliche Technologie zum ARPANET nutzen. Die Herausforderung bestand nun darin diese unterschiedlichen heterogenen Netzwerke so zu verknüpfen, das alle Netze untereinander kommunizieren konnten. War es möglich gewesen bei der Entwicklung des ARPANET heterogene Computer vereinen zu können, dann mußte dies auch für Netzwerke möglich sein. Das bis dahin verwendete Protokoll NCP (Network Control Protocol) reichte für diese Ansprüche nicht aus. Um diesem Problem begegnen zu können gründete die ARPA im Jahre 1973 das "INTERNET Program" und beauftragte Vinton Cerf und Robert Kahn damit ein neues Protokoll zu entwickeln, das diesen Anforderungen genügt.


Das Ergebnis ihrer Bemühungen war das TCP-Protokoll (Transmission-Control-Protocol), welches Anfang 1980 um das IP-Protokoll (Internet-Protocol) erweitert wurde. Genauso wie das zuvor verwendete NCP ist das TCP-Protokoll paketorientiert und damit widerstandsfähig gegen Verbindungsstörungen und ist unabhängig vom jeweiligen System. Zusätzlich ist es auch in der Lage unterschiedliche Übertragungsmedien zu verwenden, so zum Beispiel Satellitenverbindungen, Glasfaser- und Kupferkabel. Gleichfalls war man nun in der Lage, unterschiedliche Netzwerke miteinander zu verbinden, indem man das "Routing" über spezielle Netzwerk-Computer (den sog. "Gateways") abwickeln ließ.


Aufgabe der Gateways ist es, Daten die von einem Computer eines Netzwerkes versand werden, zum nächsten Gateway des anderen Netzwerkes weiterzuleiten. Dabei macht man sich zunutze, das jedem Rechner unterschiedlicher Netzwerke eine hierarchisch aufgebaute "IP-Adresse" zugeteilt wird. Ein Teil dieser Adresse gibt an, in welchem Netzwerk sich der gesuchte Computer befindet, ein weiterer Teil bestimmt den gesuchten Computer innerhalb des Netzwerkes selbst. Somit kann es für jeden Rechner nur eine IP-Adresse geben über die er identifizierbar ist.
Daraus folgt, daß es eine zentrale Organisation geben muß die die Vergabe der IP-Adressen steuert. Weltweit wird diese Aufgabe von der "IANA (Internet Assign Numbers Authority)" übernommen. Diese wiederum hat drei Organisationen autorisiert die Vergabe vorzunehmen. Für Europa ist dies die RIPE/NCC mit Sitz in Amsterdam. Inzwischen existieren auch nationale Netzwerk-Zentren: Für Deutschland übernimmt diese Aufgabe im Auftrag des "Interessenverbandes zum Betrieb eines deutschen NIC" das "DE-NIC (Network Information Center)" an der Universität Karlsruhe.
IP-Adressen sind 32 Bit lang und werden in 4 Gruppen mit je 8 Bit angegeben.[6] Jede bestimmende Zahl der einzelnen Gruppe darf zwischen 1 und 254 liegen. Folglich reichen diese Adressen von 1.1.1.1 bis 254.254.254.254. Mit dieser 4 Byte Adressierung sind theoretisch über 4 Milliarden Rechner eindeutig unterscheidbar. Da jedoch das Netzwerk selbst, als auch der zugehörige Rechner logisch über diese IP eindeutig identifizierbar sein muß war eine Klassifizierung der Adressen in 5 Gruppen nötig[7]:


* Gruppe A: 1 bis 126 : Für Netzwerke mit über 1 Million Rechnern
* Gruppe B: 128.1 bis 191.254 : Für Netzwerke mit bis zu 64516 Rechnern
* Gruppe C: 192.1.1 bis 223.254.254 : Für Netzwerke mit maximal 254 Rechnern
* Gruppe D/E: ab 224 : wird z.Zt. nicht genutzt

Trotz der großen Anzahl von verfügbaren IP-Adressen werden diese langsam gering. Dies ist auf die enorme Nachfrage nach einer Adressierung in den letzten Jahren zurückzuführen. Aus diesem Grunde geht man seit 1996 dazu über ein neues IP-Adressierungssystem zu implementieren das kompatibel zum alten System ist. Dieses "IPnG (Internet Protocol next Generation)"oder Ipv6 genannte Protokoll nutzt ein 8 mal 16 Bit großes Adressierungsschemata und sollte mit seinen 3,4 * 1038 möglichen Adressen ausreichend für den Bedarf sein.


1975 wurden die ersten amerikanischen Universitäten sowie die University of London mit dem TCP/IP-Protokoll ausgestattet. Die ARPA leistete bei der Integration von TCP/IP an den Universitäten sowohl wissenschaftliche als auch finanzielle Unterstützung. Ferner half sie der Universität von Berkeley bei der Einbindung von TCP/IP in das UNIX-Betriebsystem. Da dieses Betriebsystem an den meisten amerikanischen Universitäten zum Einsatz kam, wurde TCP/IP schnell zum Standard für die Vernetzung im akademischen Bereich. Heute wird das TCP/IP-Protokoll umgangssprachlich auch als das "Esperanto der Computer" bezeichnet.[8] Zunächst wurde dieses Netzwerk aus akademischen Einrichtungen "ARPA Internet" genannt als immer mehr militärische, wissenschaftliche und staatliche Netze sich anschlossen ging man dazu über, diesen Netzwerkverbund einfach nur noch "Internet" zu nennen. Während heute oft der Begriff "Internet" mit dem World-Wide-Web (WWW) verwechselt wird versteht man unter "Internet" im eigentlichen Sinne die Menge aller über das TCP/IP-Protokoll vernetzten Computer, die untereinander durch Gateways verbunden sind.[9]
In Europa und Japan begann man unterdessen für den Aufbau von Netzen ein anderes Protokoll zu verwenden: X.25. Diese, von der "International Standards Organisation (ISO)" vorgeschlagene Netzwerkspezifikation, eignete sich im besonderen für große, homogene Netzwerke. Im Zuge anstehender Anbindungen von weltweit verteilten Netzen kam es zu Grundsatzdiskussionen zwischen den Befürwortern von TCP/IP und denen von X.25. Während es der ARPA von jeher schon um die Vernetzung von heterogenen Systemen ging, war es den Verfechtern von X.25 wichtiger, homogene Netze zu bilden. Die Auseinandersetzung wurde durch einen entscheidenden Vorteil zu Gunsten von TCP/IP beendet: Bereits 1969 wurde von dem Büromaschinenkonzern Xerox das "Palo Alto Research Center (PARC)" gegründet. Dazu wurden von der ARPA einige Leute abgeworben um anstatt für militärische nun für kommerzielle Zwecke zu forschen. Das Ergebnis dieser Forschung war neben der Entwicklung des ersten PCīs (Altos), das erste lokale Netzwerk auf Ethernet-Basis. Die auf dieser Basis entstandenen Local-Area-Networks (LANs) wurden im Laufe der Jahre in unzähligen Institutionen und Firmen installiert. Die Anbindung der LANs an das Internet über das TCP/IP-Protokoll stellte keine sonderlich großen Herausfordungen dar. Für das X.25-Protokoll jedoch, waren diese LANs weniger geeignet. Als die ARPA im Jahr 1982 eine Schnittstelle zwischen dem TCP/IP-Internet und dem X.25 zugrunde liegendem TELENET vorstellte, war der Erfolg von TCP/IP besiegelt.


1983 wurde dem ARPANET der militärischen Teil, der sich fortan MILNET nannte ausgegliedert. Die zivilen Teile wie Forschung und Lehre verblieben weiterhin im ARPANET.
Noch im selben Jahr, am 1.Juli 1984 wird das NCP endgültig durch das TCP/IP-Protokoll abgelöst.


Bereits im Jahr 1979 wurde von der staatliche "National Science Foundation (NSF)" ein Netzwerk gegründet, das alle Informatik-Fakultäten der USA miteinander verband. Dieses "Computer Science Net (CSNET)" ging 1984 in ein landesweites Forschungsnetz über, das für die weitere Entwicklung des Internet noch von entscheidender Bedeutung sein sollte: Das NSFNET. Als Basisprotokoll für dieses Netzwerk wurde TCP/IP gewählt. Unter anderem wurden 5 in der ganzen USA verteilte "Supercomputer" über eine Hochgeschwindigkeitsleitung miteinander vernetzt. Viele Colleges und Universitäten wurden vom NSFNET an das Internet angeschlossen. Aufgrund der staatlichen Förderung war das NSFNET dem ARPANET sowohl in bürokratischer als auch in finanzieller Hinsicht weit voraus. Des weiteren hatte das Datenaufkommen des NSFNET das des ARPANET bereits 1988 weit überschritten. Aus diesen Gründen entschloß sich die ARPA am 1. Juni 1990 das ARPANET zu "deinstallieren". Der physische Untergang des ARPANET wurde von den Nutzern des Internet nicht bemerkt. Die von den Gründern vertretene Philosophie der heterogenen Netzwerke sowie das entwickelte TCP/IP-Protokoll existiert jedoch weiterhin.


Die von der NSF verbundenen 5 "Supercomputer" wurden zum Backbone, dem Rückgrat des Internet. Solche Backbones sind notwendig, da sich aufgrund der langsameren Unternetze das Datenaufkommen im Internet an den Hauptknotenpunkten ständig stauen würde. Über diese "Hochgeschwindigkeitsrückgräter" werden die Datenpakete an solchen Punkten schnell weiter- transportiert.

3 Nützliche Anwendungen
3.1 TELNET
Der älteste Dienst und gleichzeitig auch ein Protokoll welches zu Beginn des ARPANETS in Betrieb genommen wurde ist das "Telecommunications Network" - Programm kurz TELNET genannt. Die geographisch weit entfernten Rechner mußten sich via Telefonleitung fernsteuern lassen, damit deren Ressourcen auch wirksam genutzt werden konnten. Mit Hilfe dieses Programms erscheint das Arbeiten im Netz so, als befände man sich direkt am entfernten Rechner und würde dort die jeweiligen Funktionen ausführen. Natürlich ist hierbei das Gros der möglichen Befehle für einen Gast auf einem fremden Rechner gesperrt um Mißbrauch zu vermeiden.


Während TELNET ursprünglich dafür gedacht war, sich die (schnellere) Rechenzeit eines entfernten Rechners zunutze zu machen, tritt diese Funktion heutzutage eher in den Hintergrund. Ein populärerer Bereich für den Gebrauch von TELNET findet man gegenwärtig beim Gebrauch von Online-Bibliotheksdiensten wie zum Beispiel dem "Online Public Access Catalog (OPAC)".
OPAC dient der Recherche in Universitäts- und/oder Institutionsbibliotheken. Nach Angabe der Befehlszeile


TELNET <IP-Adresse> <Port>


erfolgt der Verbindungsaufbau mit einer entsprechenden Aufforderung zur Eingabe der Benutzernummer und des Paßwortes. Die Eingabe der Port-Nummer in obigem Beispiel ist allerdings optional. In den meisten Fällen erfolgt der Zugang zum gewünschten Programm bereits über die IP-Adresse. Nur in speziellen Fällen müssen Programme auf den Zielrechnern dennoch über eine Port-Nummer angegeben werden um sie erreichen zu können. So sind zum Beispiel die sogenannten MUDīs, dies sind interaktive Rollenspiele über das Netz, häufig nur über die Angabe der Port-Nummer ausführbar.

3.2 FTP
Gleichzeitig mit TELNET wurde ein Protokoll entwickelt, mit dem sich Dateien und ganze Programme über ein Netzwerk übertragen lassen. Mit Hilfe dieses "File-Transfer-Protocol (FTP)" können von einem FTP-Server eine Vielzahl von Dokumenten, Freeware- und Sharewareprogramme auf den eigenen Rechner übermittelt werden.
Die Syntax von FTP ist analog zu TELNET. Mit der Befehlszeile


FTP <IP-Adresse> <port>


erfolgt wie bei TELNET der Zugang zu einem FTP-Server. Wobei auch in diesem Fall die Angabe des Ports nur der Vollständigkeit halber aufgeführt wird.
Nachdem die Verbindung mit dem FTP-Server hergestellt wurde, erfolgt nun die Abfrage der Login-Informationen. Als Login wird hierbei üblicherweise "anonymous" angegeben, das Passwort ist in der Regel die persönliche Internet-Adresse.


Falls man ein älteres FTP-Programm verwenden sollte, ist man darauf angewiesen einige notwendige Befehle einzugeben. Die Syntax ist in diesem Falle der von MS-DOS sehr ähnlich. Unterschiedlich ist vor allem, daß bei einem Wechsel des Verzeichnisses kein wie bei MS-DOS übliches " \ "(Backslash) angegeben wird, sondern ein " / " (Slash). Nachstehend einige wichtige Befehle:
DIR Aufruf zum anzeigen des Inhaltsverzeichnisses


CD <Verzeichnis> Wechseln in ein Unterverzeichnis
CD <Verzeichnis>/<Verzeichnis> Wechselt zwei Ebenen tiefer
CD.. Wechselt ein Verzeichnis höher
GET <Dateiname> Kopiert diese Datei auf den eigenen Computer MGET <Dateiname> Gleich mehrere Dateien lassen sich auf einmal
MGET <Dateiname> übertragen


Bei Verwendung eines moderneren FTP-Programms wie beispielsweise "WS_FTP" lassen sich die Dateien des Servers wie beim "Windows Datei Manager" oder "Windows Explorer" kopieren.

Damit die Übertragungszeiten nicht so hoch sind und damit die Kosten für denjenigen der den Server anwählt gering bleiben, liegen die meisten der größeren Programme in komprimierter Form vor. In diesem Fall muß man die übermittelten Dateien bzw. Programme unter Verwendung spezieller Komprimierungsprogramme (z.B. "UNZIP", "ARJ" etc.) wieder dekompriemieren um sie auch ausführbar zu machen.


3.3 E-Mail
Als das ARPANET 1969 seine Arbeit aufnahm waren die Konstrukteure davon überzeugt, daß mit einer frühen Form von TELNET, FTP und dem sogenannten remote printing alle Notwendigkeiten für die Arbeiten in einem Netzwerk abgedeckt waren. Diese Tatsache änderte sich jedoch mit der Feststellung das eine Anwendung, an die sie überhaupt nicht gedacht hatten zum beliebtesten Instrument werden sollte: Die "Electronic-Mail" oder kurz "E-Mail".


Vinton Cerf einer der Mitwirkenden bei der Entwicklung des TCP/IP-Protokolls bekannte später: "We didnīt know that e-mail was important ... we werenīt even sure what it was at the time."[10]
Das E-Mail-Programm wurde von 2 ARPA-Programmierern 1971 entwickelt als sie sich, unabhängig vom FTP-Dateitransfer, persönliche Nachrichten zukommen lassen wollten. Schon bald wurde überstieg dieser Dienst das Datenaufkommen der herkömmlichen Dienste TELNET und FTP.


Die Funktionsweise von E-Mail ermöglicht das schnellere und billigere Versenden einer Nachricht als über die Briefpost. Des weiteren ist eine E-Mail in allen Fällen billiger als ein Ferngespräch und bietet dem Empfänger die Möglichkeit die Nachricht zu einem Zeitpunkt zu lesen die ihm angenehm ist. Durch die E-Mail wurde es möglich eine Seite oder hundert Seiten an einen oder tausend Empfänger zu verschicken indem man nichts anderes macht, als eine Taste zu betätigen.


Wenn man in der heutigen Struktur des Internet eine Nachricht per E-Mail um die halbe Welt senden möchte, benötigt dieser Vorgang in der Regel nur einige Sekunden. Dabei ist es oftmals so, daß der Rechner von dem die Nachricht versendet wurde nicht einmal den Empfängerrechner kennt.


Im Zuge der Weiterentwicklung des Internet wurden die IP-Server um die "Domain-Name-Server (DNS)" erweitert. Aufgrund der Vielzahl der angeschlossenen Netzwerke an das Internet, war es unmöglich geworden sich die jeweiligen IP-Adressen des Zielrechners zu merken. Diese Domain-Name-Server arbeiten mit den IP-Servern zusammen und haben die Aufgabe, die 4 Byte langen IP-Adressen zu übersetzen. Der DNS fungiert in diesem Falle als eine Art Auskunftssystem für den IP-Server. Ändert sich beispielsweise die IP-Nummer eines Rechners innerhalb Netzwerkes, so müssen nicht alle Rechner die an ein anderes Netzwerk angeschlossen sind diese IP-Nummer ändern wenn sie den betreffenden Rechner erreichen wollen. Diese Funktion übernimmt dann der DNS, der dir geänderte IP sucht und dementsprechend ändert.


Selbstverständlich darf wie bei den IP-Adressen kein Domain-Name doppelt vorkommen. Aus diesem Grunde sind auch die Domains streng hierarchisch nach folgendem Prinzip aufgebaut:
[user@]host.subdomain.domain.top_level_domain


Für den Empfang einer E-Mail wird noch der persönliche Account (der eigene Benutzername) und einer sogenannter "Klammeraffe", das griechische @ ("et" im englischen "bei") vor die Domain gesetzt. Im Gegensatz zu den IP-Adressen sind die Domain-Names nicht begrenzt d.h. große Domains können auch in kleinere Subdomains aufgeteilt werden. Dies gilt jedoch nicht für den host sowie für die Toplevel Domain. Diese Teiladressen müssen eindeutig identifizierbar sein.


Die unterschiedlichen Bereiche des Internet sind in identifizierende Toplevel Domains aufgeteilt: die Endung "edu" betrifft den Bereich des Bildungswesens, "com" steht für kommerzielle Anbieter, "mil" für das militärische Gebiet, "gov" für Regierungsrechner, "org" für gemeinnützige Organisationen und "net" für Organisationen und Firmen, die organisatorische Aufgaben im Internet übernehmen. Ferner erhielten die nationalen Anbieter außerhalb der USA ebenfalls Toplevel Domains entsprechend deren standardisierten Landeskürzeln wie "de" für Deutschland oder "ch" für die Schweiz.
Das Vorteil dieses Systems liegt darin, daß keine große Datenbank mit sämtlichen IP-Adressen existieren muß. Pro Toplevel-Domain ist eigentlich nur ein Knotenrechner nötig, dem wiederum lediglich den Knotenrechner der Domains bekannt ist. So werden die Datenpakte jeweils nur eine Hierarchie "höher" geleitet, bis sie auf einen Knotenrechner treffen, der die jeweilige Domain kennt. Von dort aus werden die Pakete wieder umgeleitet und so weit wieder in der Hierarchie "abwärts" geschickt, bis der Zielrechner erreicht ist.


Um ständig den aktuellsten Stand einer Diskussion zu erfahren, wurden von den Internet-Anbietern sogenannte "Mailing -Lists" geschaffen, die von eigenen List-Servern zur Verfügung gestellt werden. Ist man Teilnehmer einer solchen E-Mail-Diskussiongruppe, so erhält man in regelmäßigen Abständen die aktuellsten E-Mails von allen anderen Abonnenten zugeschickt. Möchte man selber einen Beitrag zur Diskussion leisten, so muß eine E-Mail an bestimmte E-Mail Adresse geschickt werden. Ein Programm auf dem Server sorgt dann dafür, das der Beitrag an alle Verteiler weitergeleitet wird. Dieses System funktioniert ähnlich dem Konferenzsystem für das USENET, und dient dem Meinungsaustausch und der Information Gleichgesinnter. Mittlerweile gibt es tausende dieser E-Mail-Diskussionsgruppen zu allen möglichen Themenbereichen.


Die erste dieser Diskussionsgruppen die bereits im ARPANET entstand, war die Kategorie "SF-LOVERS", die von ARPA-Forschern Ende der 70er Jahre gegründet wurde. Diese hatten ein Faible für Science Fiction. Zunächst wurde von den Oberen der ARPA versucht, diese Form des Datenaustausches zu verhindern - die Liste wurde gar für 5 Monate gesperrt. Die Sperre wurde jedoch wieder aufgehoben, weil man die ARPA-Verantwortlichen davon überzeugen konnte, das diese Mailinglisten bedeutend für die weitere Entwicklung des ARPANET sein könnte.


4 Beachtenswerte Netze
4.1 Das USENET
Das USENET ist, wie der Name schon sagt, ein Netz von Usern für User. Möglich wurde dieser private Informationsaustausch durch eine neue Variante des Unix-Betriebssystems im Jahre 1978. Diese Version beinhaltete ein Programm namens "Unix-to-Unix-Copy (UUCP)", mit dem das Kopieren von Dateien von einem Unixrechner zu einem anderen möglich geworden war. Schon im folgenden Jahr stellten 4 Studenten der Duke University ein Skript vor mit dem es unter Verwendung von UUCP möglich war Daten zwischen der Duke University und der University of North Carolina auszutauschen. Das USENET war entstanden. Ziel dieser Datentransfers war die gegenseitige Hilfestellung bei der Lösung von Problemen mit Unix-Rechnern. Im entfernteren Sinne war dies eine Weiterentwicklung der bereits 1969 von der NWG vertretenen Philosophie der RFC. Das Prinzip des USENET lag darin, eine Mitteilung eines Teilnehmers wie bei einem "schwarzen Brett" allen Teilnehmern zur Verfügung zu stellen. Ebenfalls war es möglich, verschiedene Hauptbereiche zu unterschiedlichen Themen an dezentral organisierten UNIX-Rechnern einzurichten und zu verwalten. So konnte jeder User zu allen Themenbereichen antworten und gegebenenfalls eine neue Diskussion eröffnen. Mit der Zeit zeigte sich jedoch, daß ein erhöhtes Interesse eher darin bestand nicht nur reine UNIX-Neuigkeiten auszutauschen, sondern auch zu Themen mit Politik, Computer oder soziale Angelegenheiten Stellung zu nehmen. 1980 wurde die erste Schittstelle zwischen dem USENET und dem ARPANET hergestellt. Das USENET wuchs rasant: waren 1980 noch 15 Rechner an das USENET angeschlossen, waren es 1985 bereits 1300 Rechner innerhalb und außerhalb der USA. Dementsprechend wuchs auch die Anzahl der Diskussionsforen. 1987 war notwendig geworden die Masse der Informationsflut streng hierarchisch zu strukturieren. Demnach wurden die Hierarchien in folgende Themenbereiche unterteilt: Wissenschaft (sci), Freizeitgestaltung (rec), Computer (comp), soziale Angelegenheiten (soc) und Neuigkeiten (news). Da diese 5 Obergruppen allerdings immer noch nicht ausreichend waren um einen Überblick über die vorhandenen Diskussionen zu gewinnen, oder gar eine bestimmte Diskussion zu finden an der man gerne teilhaben möchte ging man dazu über, diese Oberguppen abwärts zu kategorisieren.


Die einzelnen Unterkategorien wurden dabei durch Punkte voneinander getrennt. So zeigt zum Beispiel die Rubrik

COMP.OS.LINUX


Hauptgruppe OS = eigentliche Newsgroup:
"Computer" "Operation Das Computer-Betriebsystem
Sytems" - Linux
Betriebssysteme


alle zur Verfügung stehenden Beiträge dar, die über das Computer-Betriebsystem "Linux" handeln. Da das USENET in den USA gegründet wurde ist es natürlich das fast alle Beiträge in englischer Sprache behandelt wurden. Im laufe der Jahre und mit ständigem Anwachsen des USENET wurden diese Hierarchien um nationale Diskussionsforen erweitert. Das jeweilige Kürzel für die Nationalität (für Deutschland "de") wurde dabei vor die jeweilige Hauptkategorie gesetzt (im obigen Beispiel wäre dies: "de.comp.os.linux").


[Beta]islang noch unerwähnt blieb eine Hauptkategorie, die den größten Teil des Datenvolumens innerhalb des USENET ausmacht: die Rubrik "alt." für Alternatives. Hauptmaxime des USENET war es, daß jeder User die Möglichkeit haben sollte seine Meinung unzensiert zu veröffentlichen. Nachdem sich 1988 der in Netzwerkkreisen angesehene und einflußreiche Gene Spafford jedoch weigerte die Newsgroups "soc.sex" sowie "soc.drugs" einzurichten, wurde die Rubrik "alt." mit den Verzeichnissen "alt.sex", "alt.drugs" sowie "alt.rock-n-roll" als eine anarchistische Hierarchie gegründet.[11]
Die heute mehr als 15.000 Newsgroups sind im allgemeinen frei zugänglich. Einschränkungen zum Zugang zu den Newsgroups kann einerseits der Internet-Anbieter schaffen, andererseits gibt es bestimmte Bereiche im USENET bei denen zunächst eine Mitteilung an den Moderator erfolgen muß, um seinen Beitrag zu veröffentlichen.


4.2 Die weitere Entwicklung zum World-Wide-Web (WWW)
Nach dem "Tod" des ARPANET im Jahr 1990 wuchs das Internet mit der neuen Hochgeschwindigeitstrasse des NSFNET weiter an. Im Gleichschritt mit dem immer größer werdenden Internet wuchs auch die Informationsflut. Wenn man nicht mehr genau wußte an welchem Ort im Internet sich die gesuchte Information befand, hatte man auch kaum eine Chance diese zu finden. Mit den Befehlen CD und DIR auf einem FTP-Server würde man Stunden brauchen um zum Ziel zu gelangen. So wurden bereits in den späten 80er Jahren sogenannte "Tools" geschrieben, die den Usern dabei helfen sollten sich im Internet zurechtzufinden.


Das erste dieser Tools das in der Lage war Dateien und Programme im Internet zu finden war das 1990 entwickelte "Archie"-Programm. Auf TELNET-Basis sucht ARCHIE alle ihm bekannte FTP-Server nach den gewünschten Daten ab. Zunächst wählt man sich mit der Befehlszeile


TELNET archie.domain.top_level_domain


in einen Archie-Server ein. Anschließend kann man beispielweise mit dem Befehl "PROG" nach Programmen und bestimmten Dateien suchen. Als Rückmeldung erhält man dann alle ihm bekannten Fundstellen der Dateien in der Form, auf welchem Host und in welchem Pfad sich die gesuchte Datei befindet.


Die ständig anwachsende Zahl von Anfragen war für die Programmierer von ARCHIE überwältigend. Als Reaktion darauf entwickelten sie ARCHIE-CLIENT-Programme sowie die Möglichkeit ARCHIE auch per E-Mail erreichen zu können.


Bereits ein Jahr später entwarf Mark McCahill von der University of Minnesota ein Programm mit dem die großen Server in der Lage waren, ihre gespeicherten Informationen hierarchisch in einem Menü darzustellen: "GOPHER". Der Vorteil von GOPHER lag darin, daß man nun nicht mehr exakt wissen mußte, wonach man eigentlich sucht. Durch die Menügeführte
Darstellung der Angebote konnte man sich zunächst einen Überblick gewinnen, um dann das subjektiv beste auszuwählen und zu kopieren. Dienste bei denen man bisher TELNET und/oder FTP verwenden mußte wurden in GOPHER integriert. Nach der Einwahl in einen GOPHER-Server mit "Gopher host.domain.top_level_domain" erhält man ein tabellarisch dargestelltes Menü zur Auswahl unterschiedlicher Funktionen. Dabei navigiert man mit der RETURN-Taste in das nächste Untermenue. Um ein Verzeichnis nach "oben" zu wechseln wird die "U"-Taste oder die Pfeiltaste "nach links" benutzt. Um innerhalb eines Verzeichnisses vorwärts oder rückwärts zu blättern benötigt man die Pfeiltasten "nach oben" bzw. "nach unten". So hat man im Hauptverzeichnis die Möglichkeit, auf andere GOPHER-System zuzugreifen. Desweiteren besteht die Option über Gateways auf einen "anonymous FTP-Server", einen ARCHIE- und USENET-Server zu gelangen. Mit der Taste "D" läßt sich die gesuchte Datei auf den eigenen Computer kopieren. Als besondere Funktion wurde in GOPHER erstmals eine Lesezeichen-Funktion integriert. Falls ein interessantes Verzeichnis gefunden wurde, und man später auf dieses nochmals zurüchgreifen möchte ohne sich vom eigenen GOPHER-Server wieder bis zum gewünschten Verzeichnis durcharbeiten zu müssen betätigt man die Taste "A". Diese setzt dann an der Stelle ein Lesezeichen an der man sich gerade befindet.


An ein GOPHER-eigenes Suchsystem wurde gleichfalls gedacht. Das "Very Easy Rodent Oriented Net-wide Index to Computerized Archives" kurz VERONICA genannt liefert ein eigenes Untermenü, das weltweit alle GOPHER-Menüzeilen aufzeigt, die den gewünschten Suchbegriff enthalten.


Etwa zu gleichen Zeit entwickelte der schweizer Physiker Tim Berners-Lee am europäischen Kernforschungszentrum CERN ein System, welches als Informationssystem für Hochenergiephysik gedacht war. Mit Hilfe dieses Systems wollte er seine Internet-basierten Informationen und Ressourcen organisieren. Dokumente, die von allgemeine Interesse war wollte er den Mitgliedern seiner Forschungseinrichtung zukommen lassen.


Dabei machte er sich ein Projekt zunutze, das bereits in den frühen 60er Jahren als "Xanadu Projekt" durchgeführt wurde. Unter Verwendung dieses Konzeptes ließen sich die individuellen Bausteine eines Textes mit relevanten Querverweisen versehen, ohne das diese Querverweise für den Benutzer sichtbar waren. Das der jeweilige Baustein einen Querverweis beinhaltet, läßt sich nur an der farblichen Kennzeichnung des Bereiches erkennen. Dieses "Hypertext" genannte Verfahren sollte der Baustein für den wichtigsten Dienst des Internet werden : Das World-Wide-Web (WWW).
Berners-Lee benutzte eine zuvor entwickelte Sprache für dieses Textsystem namens SGML und erweiterte sie, so daß neben reinen Querverweisen nun auch Internet-Adressen "versteckt" in das WWW-Dokument aufgenommen werden konnten. Über diese Hypertextdukumente war es nun möglich über die Querverweise ("Links") nicht nur innerhalb einer Abteilung, sondern über das Internet auf relevante Information zu verweisen die über die ganze Erde verteilt waren.


Um ein Hypertext-Dokument betrachten zu können benötigt man einen "Browser". Der erste einfach zu bedienende Browser war das 1993 am "National Center for Supercomputing Application (NCSA)" entworfene "Mosaic". Über einen simplen Mausklick konnten nun multimediale Dokumente, die sowohl Text als auch Graphiken, Bild und Ton enthalten können über das Internet empfangen werden. Auch war man nicht länger gezwungen zwischen den einzelnen Anwendungen FTP, TELNET und E-Mail zu wechseln. Mosaic implementierte alle diese Funktionen. Wenn von Mosaic in der Vergangenheit gesprochen wird, dann aus dem Grunde, das Entwicklung in den letzten Jahren sehr schnell voranschritt. Mittlerweile existieren 2 konkurrierende Unternehmen um die Vormachtstellung für Browser im WWW: Der "Internet Explorer 4.0" von Microsoft und der "Netscape Communicator" der gleichnamigen Firma.


1992 wurde die Internet Society (ISOC) gegründet. Die ISOC ist eine gemeinnützige Organisation, die die technische Entwicklung des Internet fördert. Sie versteht sich als Forum für alle Internet-Interessierten Personen und Institutionen.


Nach der Entwicklung der neuen Hypertextsprache die fortan "Hypertext Markup Language (HTML)" genannt wurde, begann das Internet und vor allem das WWW rasant zu wachsen.
Mit welch enormer Geschwindigkeit die Anzahl der eigenständigen Rechner im Internet seit der Einführung des WWW-Dienstes im Jahr 1992 zunahm, soll nachfolgende Graphik verdeutlichen:
Anzahl der Rechner mit eigenständiger Internet-Adresse


Quelle: Internet Society [12]


Für dieses neue Hypertextverfahren wurde jedoch auch ein neues paketorientiertes Protokol benötigt, um HTML Dokumente über das WWW zu versenden. Dieses "Hypertext-Transfer-Protocol (HTTP)" wird in der Befehlszeile des jeweiligen Browsers eingeben in der Form


http://domain.top_level_domain.dateiname.htm


Diese komplette Adresse zum laden von Hypertextseiten wird als "Uniform Resource Locator (URL)" bezeichnet. Über diese URLs werden Hypertextseiten nach oben beschriebener Methode miteinander verknüpft.


Um effizient über das WWW nach bestimmten Angeboten zu suchen haben sich im Laufe der Zeit einige kommerzielle "Suchmaschinen" im WWW etabliert, die sich vor allem über Werbung finanzieren. Die bekanntesten unter ihnen sind unter den URLs "http://altavista.digital.com" für den Suchdienst Altavista, "http://www.yahoo.de [oder .com]" für den Klassiker der Suchsysteme: Yahoo in deutscher oder englischer Sprache.


5 Fazit
So rasant die Entwicklung des Internets seit der Einführung des WWW vorangeschritten ist so zügig wird sie auch in den nächsten Jahren weiter voranschreiten. 1997 waren bereits 16.000.000 Rechner an das Internet angeschlossen.


Diese Vorstellung hatten die Internet-Pioniere wie J.C.R. Licklider, Paul Baran oder Vinton Cerf sicherlich nicht. Ihre Vorstellung war ein anarchistisches Netz mit Meinungsfreiheit für jeden Benutzer. Denn als 1969 die ersten 4 Computer miteinander verbunden wurden, konnte noch keiner ahnen, was aus diesen Anfängen einmal erwachsen sollte. Denn die Gegenwart zeigt, das der Einfluß der kommerziellen Betreiber im Internet stetig zunimmt. Bereits 1993 wurden weite Teile des Internets an Privatunternehmen wie IBM und der Telefongesellschaft BELL übergeben. Hinsichtlich dieser Fragen muß man hinterfragen, welchen Ziele diese Wirtschaftskräfte für die weiter Entwicklung des Internets verfolgen. Es gibt Meinungen, die besagen, dies sei ein normaler evolutionärer Vorgang. Andere sehen darin den Beginn einer Zensur und eine Beschneidung des Zuganges über den Preis. Die Zukunft wird hier zeigen wie die Realität aussieht.


Ebenso ist das Internet vor allem seit der Einführung des WWW bezüglich der Verbreitung von Pornographie und schleichender Ausbreitung von Rechtsradikalismus ins Gerede gekommen. Zu diesem Punkt ist zu sagen, daß das Internet ein Spiegelbild unserer Gesellschaft ist. Nicht besser, aber auch nicht schlechter. Fanatiker wird es immer geben, und ebenso das Geschäft mit der Lust. Der Großteil der Internet-User ist weder das Eine noch das Andere. Einen Härtefall besteht in der Verbreitung von Kinderpornographie. Moralisch verwerflich und untragbar wird die Förderung und Veröffentlichung mittlerweile (glücklicherweise) strafrechtlich verfolgt. Das Internet ist kein rechtsfreier Raum. In diesen Tagen steht der Geschäftsführer des Internet-Providers Compuserve Deutschland aufgrund dieser Vorwürfe vor Gericht. Man darf gespannt auf den Ausgang dieses Prozesses sein.


Das Internet hat viel dazu beigetragen seinem Ruf als anarchistisches, störungsunanfälliges Netz gerecht zu werden. Als 1989 die studentische Demokratiebewegung in China blutig niedergeschlagen wurde, nutzten die Studenten weiterhin das Internet um ihre Meinung über das Regime in China zu verbreiten, ohne das diese das verhindern konnten. Gleiches galt für die russischen Putschisten 1991. Die Nachrichten wurden zensiert und Zeitungen, die über die tatsächliche Lage informieren konnten erschienen erst gar nicht. Der einzige Informationskanal zur Außenwelt bestand in einem Internet-Provider namens RELCOM. Dieser besaß einen Link nach Finnland und von dort wurden die Pläne der Putschisten in die ganze Welt getragen. Während des Bürgerkrieges im ehemaligen Jugoslawien war das Internet oftmals der einzige Kontakt zur Außenwelt. Einen, wenn auch sehr traurigen Beweis für das funktionieren des dynamischen Routing, war der Golfkrieg von 1991. Das US-Militär hatte einige Mühe das Befehlsnetzwerk des Irak auszuschalten. Diese hatten lediglich einen kommerziell erhältlichen Internet-Router und Sicherungs-Technologie verwendet.


Die Zukunft des Netzes wird in der Verschmelzung der bisherigen medialen Angebote wie Fernsehen, Telefon, Radio und Zeitung liegen. Ein erster Schritt in diese Richtung wurde bereits damit getan, das die Angebote des Internet nicht mehr nur über die Telefonleitungen sondern auch über das (Fernseh-) Kabel möglich sind. So wird man eines Tages über das Internet einkaufen gehen können, eine Reise buchen, seine Steuererklärung abgeben oder ein Online Bildschirmtelefonat führen können. Auch wenn in diesem Zusammenhang immer wieder von sozialer Vereinsamung und von monotoner "Verblödung" gesprochen wird, so bin ich doch der Meinung, das die Gesellschaft sehr wohl auch die anderen Seiten des Internet sieht. Meinungsfreiheit, die Möglichkeit von Bildungs- und Berufschancen und die Bedeutung des freien Zugangs zu den Information treten ebenfalls immer mehr ins öffentliche Bewußsein.

Literatur


Internet: Werkzeuge und Dienste. Berlin Heidelberg, Springer-Verlag, 1994
[WWW-Dokument]. URL http://www.ask.uni-karlsruhe.de/books/node13.html#section00611
[WWW-Dokument]. URL http://www.ask.uni-karlsruhe.de/books/node14.html#section00612
Sander-Beuermann, W., Eine kurze Geschichte des Internet. RRZN, Universität Hannover
[WWW-Dokument]. URL http://www.dfn-expo.de/Geschichte/Geschichte_Internet.html
TCMN: History and Culture of the Internet. In: The Computer Museum, 1996

[WWW-Dokument]. URL http.//www.tcm.org/is/FactsNLore.html
Zakon, R. H., Hobbeīs Internet Timeline v3.3, 1993-1998
[WWW-Dokument]. URL http://www.isoc.org/guest/zakon/Internet/History/HIT.html
Internet History, Discovery Communications Inc., 1996
[WWW-Dokument].
URL http://www.discovery.com/DCO/1012/world/technology/internet/inet1.3.html -
URL http://www.discovery.com/DCO/1012/world/technology/internet/inet1.16.html
The University of Minnesota, 25th Anniversary of ARPANET, The Regents of the University of Minnesota, 1997
[WWW-Dokument]. http://www.cbi.umn.edu/darpa/arpanet.htm
inMediaOnline, Seminar: HTML (1), Köln, Media Akademie GmbH, 1997
[WWW-Dokument]. http://www.inmedia-bildung.de/htmlk.htm
Musch, J., Die Geschichte des Netzes - Ein historischer Abriß in: B. Batinic (1997), Internet für Psychologen, Göttingen: Hogrefe
Goldmann, M., Herwig, C., Hooffacker, G.,
Internet - Per Anhalter durch das Globale Datennetz, Reinbek, Rohwolt: 1996
Steinhaus, I., Keine Panik - Internet sicher nutzen , Reinbek: Rohwolt 1997, S.26

Licklider, J.C.R., Man-Computer-Symbiosis. IRE Transactions on Human Factors in Electronics, 1960


[1] Anm.: Vinton Cerf entwickelte zusammen mit Robert Kahn das Internet-Protokoll TCP/IP
[2] Licklider, J.C.R., Man-Computer-Symbiosis. IRE Transactions on Human Factors in Electronics, 1 (1), 1960
[3] Musch, Jochen "Die Geschichte des Netzes - Ein historischer Abriß" in: B. Batinic (1997), Internet für Psychologen, Göttingen: Hogrefe
[4] TCMN: History and Culture of the Internet [WWW-Dokument]. URL http.//www.tcm.org/is/FactsNLore.html
[5] Internet History: The ARPANET Coming-out Party [WWW-Dokument]
URL http://www.discovery.com/DCO/1012/world/technology/internet/inet1.6.html
[6] Die Gateway-IP Adresse für die Universität Duisburg ist beispielsweise 134.91.19.1
[7] Vgl. Goldmann, M., Herwig, C., Hooffacker, G. "Internet-Per Anhalter durch das Globale Datennetz", Reinbek
Rohwolt: 1996, S. 228
[8] Vgl.: Internet History: TCP/IP: or Computer Esperanto [WWW-Dokument]
URL http://www.discovery.com/DCO/1012/world/technology/internet/inet1.9.html
[9] Vgl.: Musch, Jochen "Die Geschichte des Netzes - Ein historischer Abriß" in: B. Batinic (1997), Internet für
Psychologen, Göttingen: Hogrefe
[10] Vgl.: Internet History: The ARPANET Coming-Out Party [WWW-Dokument]
URL http://www.discovery.com/DCO/1012/world/technology/internet/inet1.6.html
[11] Vgl.: Musch, Jochen "Die Geschichte des Netzes - Ein historischer Abriß" in: B. Batinic (1997), Internet für
Psychologen, Göttingen: Hogrefe
[12] in: Steinhaus, Ingo: "Keine Panik - Internet sicher nutzen" ,Reinbek: Rohwolt 1997, S.26