IT-Academy Logo
Sign Up Login Help
Home - Fortbildung­&Lektüre - Quergeschrieben - Das Internet: Geschichte und Funktionsweise



Das Internet: Geschichte und Funktionsweise

Ein umfangreicher Überblick über die Entstehung des Internets bis zu ihrer heutigen Ausprägung und Zukunftsaussichten.


Autor: Patrick Jutz (fluid)
Datum: 29-08-2002, 19:57:03
Referenzen: Internet
Schwierigkeit: Anfänger
Ansichten: 14472x
Rating: 6 (2x bewertet)

Hinweis:

Für den hier dargestellte Inhalt ist nicht der Betreiber der Plattform, sondern der jeweilige Autor verantwortlich.
Falls Sie Missbrauch vermuten, bitten wir Sie, uns unter missbrauch@it-academy.cc zu kontaktieren.

[Druckansicht] [Als E-Mail senden] [Kommentar verfassen]



Einleitung

Internet ist der Sammelbegriff für die zahlreichen Dienste, wie E-Mail, FTP, Chat, u.v.m. im World Wide Web. Das Internet basiert auf Protokollen, der Sprache der Computer, mit denen sie untereinander kommunizieren. Voraussetzung für die Kommunikation ist natürlich das Vorhandensein von technischen Verbindungen, in Gestalt von Telefonleitungen, Glasfaserkabeln und Satelliten.

Wie alles Begann

Das Konzept des Internets stammt ursprünglich aus der militärischen Forschung. Das US - Verteidigungsministerium war sich der Gefahr einer zentralen Rechenstelle bewusst und wollte die Informationen gut verteilt wissen um bei etwaigen Ausfällen einzelner Systeme einen Zusammenbruch des gesamten militärischen Informationssystems zu verhindern. Dazu benötigte man stabile Rechnersysteme.

Zu den Gründern des Konzepts gehören Paul Baran von der RAND Corporation und Vinton Cerf von der University of California (UCLA). Die ARPA (Advanced Research Projects Agency) des US-Verteidigungsministeriums errichtete darauf das erste derartige Computernetz namens Arpanet.

Bald wurde das System auch von Universitäten genutzt. IBM entwickelte fast gleichzeitig das Bitnet. Noch heute finden sich Fragmente des Bitnet im Internet, etwa die Listserver. Sie verteilen automatisch Informationen an Benutzer. Das Bitnet verwendete aber ein Protokoll, welches nur von IBM - Rechnern verstanden wurde. Man bemühte sich um ein einheitliches Protokoll, so entstand das TCP/IP (Transmission Control Protocol / Internet Protocol), welches heute noch als Grundlage des Internets gilt.

Das Internet eröffnet dem Benutzer viele Möglichkeiten. Wie zum Beispiel die Electronic Mail, kurz E-Mail. Damit können sich Benutzer untereinander Nachrichten schicken. Man gibt eine E-Mail-Adresse an, so dass der Computer weiß, auf welche Mailbox (Briefkasten) eines anderen Rechners er die E-Mail schicken soll. Die E-Mail stellte sich bald als Konkurrenz für die Briefpost heraus, da die Nachrichten und Daten oft in wenigen Minuten nach dem Abschicken ihren Empfänger erreichen konnten.

Der Benutzer holt sich nun aus seiner Mailbox alle E-Mails ab und kann sie dann lesen. Ein wichtiger Bestandteil des E-Mails ist die Empfangsbestätigung, sodass der Benutzer weiß ob seine E-Mails auch die Empfänger erreicht haben. Eine wesentliche Rolle spielen die at-signs oder Klammeraffen (@). Vor dem Klammeraffen steht der Benutzername des Empfängers, rechts von der Klammer befindet sich der Domain-Name des Rechners, an die die E-Mail gesendet wird. Früher bestanden die Adressen aus komplizierten Nummern und Zeichenfolgen, heute ist man bemüht möglichst einfache und leicht zu merkende Adressen zu verwenden. Lange waren die Benutzer von E-Mails darauf beschränkt, nur einfache Texte ohne Umlaute zu senden. So entstand das Verfahren namens MIME (Multipurpose Internet Mail Extension). Mit diesem Verfahren erkennt die E-Mail automatisch die Umlaute und viele Dateien. So lassen sich heute einfach Bilder, Musik und andere Dateien als Attachment (Anhängsel) an E-Mails versenden.

Die Übertragung der Mails im Internet regelt das SMTP, Simple Mail Transfer Protocol. So schickt der Benutzer das E-Mail nicht direkt zum Empfänger, sondern er schickt es an spezielle Mailrechner, die die E-Mails über verschiedene Zwischenrechner transportieren. Diese Methode ist relativ unsicher, da die Daten über enorm viele Rechner geschickt werden. So werden heute hochkomplizierte Verschlüsselungsprogramme eingesetzt um sicherzugehen, dass nur der Empfänger die E-Mail lesen kann. Um aber wirklich alle Möglichkeiten der E-Mails zu nutzen, bedarf es möglichst vieler Teilnehmer.

Auf dem Prinzip des E-Mails aufbauend bildeten sich sogenannte News-Gruppen. Sie bildeten Diskussionsforen. Die News-Gruppen werden mit einem einheitlichen Protokoll NNTP (Network News Transfer Protocol) miteinander verbunden. Die Nachrichten der einzelnen Benutzer werden auf sogenannten News-Servern gespeichert. Heute finden sich auf solchen Rechnern mehr als 20.000 verschiedene Gruppen mit den allermöglichsten Themeninhalten.

Die Attraktion des Internets schlechthin ist aber das WWW, auch W3 oder Web genannt. War es früher möglich, nur mit einem Rechner in Kontakt zu stehen, so ist es heute möglich, sich in viele Rechner überall auf der Welt einzuloggen um Informationen zu erhalten. So bildet das WWW auch den wichtigsten Teil des Internets, alle anderen Dienste gehen als integrierte Funktionen des WWW auf.

Durch die Entwicklung der Metasprache SGML öffnete sich die Welt der Textgestaltung, dem Desktop Publishing, kurz DTP. SGML fügt dem Text Steuerzeichen, sogenannte Markups zur Textformatierung zu. Diese Markups signalisieren, ob Worte unterstrichen sind oder fett dargestellt werden. Daraus entstand die Möglichkeit, in Texten Querverweise durch Steuerzeichen zu integrieren. Diese Querverweise nennt man Hyperlinks. Man kommt durch einen Mausklick auf den dynamischen Verweis an ein komplett anderes Teilstück des Textes. Die Links können aber auch zu völlig anderen Seiten im Web führen. Hier wird die Basis geschaffen auf die alle Multimediaanwendungen aufsetzten. Innerhalb von Publikationen oder Seiten werden Verweise auf Bilder, Töne oder Videoclips verfasst.

Aus dem SGML entstand das heute gebräuchliche HTML (Hypertext Markup Language) als Sprache und das HTTP (Hypertext Transfer Protocol) als technische Übertragungsgrundlage.

Lange waren PC von der Außenwelt abgeschnitten (stand - alone). Um einen Anschluss an das Internet zu bekommen, wendet man sich an einen Access Provider. Diese Provider haben einen ständigen Anschluss an das Internet. Man stellt nun mit einem Modem (Kunstwort aus Modulator und Demodulator) über eine Telefonleitung eine Verbindung zum Provider her. Dieser weist dem Computer eine TCP/IP - Adresse zu, das Protokoll wird gestartet, und der Benutzer hat nun den Zugang zu den Diensten des Internets.

In den Anfängen des Internets waren sogenannte Bulletin Board Systems (BBS) der einzige Eintritt ins Internet. Dabei war man aber nicht direkt im Internet, man erhielt ausgewählte Daten, die man kopieren und speichern konnte. Die Benutzer dieser BBS waren Subscriber. In Europa hat sich BBS aufgrund der hohen Telefongebühren nicht wirklich durchgesetzt, es bildeten sich aber Gruppen, die Mailboxen betrieben. Es formten sich Computernetze, die untereinander regen Datenaustausch betrieben.

Aus den Anbietern der BBS entspringen die Online- Dienste. Sie errichten in allen größeren Orten Einwahlknoten für die Kunden, so fallen keine hohen Telefongebühren an, da meistens nur der Ortstarif oder der Onlinetarif bezahlt werden muss. Der Dienst selber trägt die Kosten für das internationale Netz das zu seinem Großrechner führt. Dieser speichert große Datenbestände. Diese Daten kann man nun schneller als normalerweise abrufen. Diese setzen sich es meistens aus diversen Diskussionsforen oder Informationssystemen zusammen. Da es sich dabei noch immer nicht um einen wirklichen Internetanschluss handelte, errichteten die Online-Dienstanbieter sogenannte Gateways, Zugänge zum Internet, womit die Dienstanbieter zu echten Access Providern wurden.

In Europa stellten große Telefongesellschaften Dienste wie den Btx (Bildschirmtext) oder das Minitel in Frankreich auf. Doch das geringe Interesse an Btx-Diensten zwang die Gesellschaften in das Internet umzusteigen.

Die wirklichen Anbieter des Internets wurden die Internet Service Provider, kurz ISP. Sie konzentrieren sich nur auf den Internetzugang und betreiben internationale Datenverbindungen mit starker Leistungsfähigkeit. Sie bilden sozusagen das Gerüst, das Skelett, auf dem alle anderen Access Provider oder sonstige Dienstanbieter aufbauen.

Neuerdings treten die Betreiber des Kabelfernsehens als Anbieter eines Internetzugangs auf. Man benützt dabei die schon vorhandenen Glasfaserkabel. Die Verbindung ist mehr als hundertfach besser als normale Telefonleitungen. Deshalb verlaufen auch fast alle Hauptverbindungen des Internets über solche Kabel, wenn sie noch nicht eine Satellitenverbindung haben. Lange waren die Preise für den privaten Nutzen der Glasfaserkabel in der Kommunikationstechnik so hoch, dass die Kabelfernsehbetreiber zusehen mussten, wie die Telefongesellschaften ein Monopol im Geschäft mit dem Internet schufen.

Doch bald war die Technik erschwinglich und die Kabelfernsehgesellschaften priesen die Vorteile der Glasfasertechnik an. Statt eines Modems verwendet man eine spezielle Anbindung an die Kabelsteckdose. Die hohe Geschwindigkeit dieser Technik gilt aber nur innerhalb des Kabelnetzes. Sobald man auf Daten im Internet zurückgreift, verschwindet der Vorteil der hohen Geschwindigkeit wieder.

Trotzdem gibt es noch zwei Gründe warum man sich für Kabelanschluss entscheiden sollte:
1. Fallen die möglichen hohen Telefonrechnungen weg, da nur ein monatliches Grundentgelt anfällt, und
2. Bleibt die Telefonleitung frei. Bei herkömmlichen Internetanbindungen ist der Telefonanschluss immer besetzt, man ist für die Außenwelt nicht erreichbar.

Jeder der schon einmal im Web unterwegs war, dem wird der Begriff URL (Uniform Ressource Locator) schon einmal aufgefallen sein. Mit einer URL wird jeder Rechner im Internet genau identifiziert, mit welcher Zugriffsmethode er angewählt wird und welche Daten am Rechner wo gespeichert sind. Um diese Informationen in eine URL zu verpacken, bedarf es natürlich einer inneren Struktur.

Eine einfache URL kann Hinweise auf die Rechnerart und das Protokoll, welches der Rechner benutzt, erhalten. Den Rest ergänzt dann die Software des Informationsanbieters. Dadurch entstehen leicht zu merkende Adressangaben wie zum Beispiel http://www.altavista.com. Die Trennzeichen :// zwischen Protokoll und Adresse wählten die damaligen Techniker, heute wäre ein einfacher Bindestrich wohl benutzerfreundlicher. Mit dem Text http weiß man sofort, welches Protokoll der Rechner verwendet, in diesem Fall den vorher beschriebenen Hypertext. Mit www.altavista.com wird der eindeutige Name des Rechners gewählt. Früher bestanden die Adressen aus komplizierten Zahlenfolgen, heute hat sich ein www. am Anfang, der Firmenname und dann ein .com am Ende durchgesetzt.

Um sich die Seiten des WWW zu Gemüte zu führen, bedarf es eines speziellen Computerprogramms, eines Browsers (browse = blättern). Dieser Browser präsentiert dem Benutzer das WWW wie ein buntes und mit Musik und Videos verziertes Journal. In einem Browser sind meistens auch Programme integriert, die das Benutzen aller anderen Internetdienste ermöglichen. Der Browser zeigt bei weiterführenden Links zu anderen Seiten die URL des gewählten Rechners an. Um dabei nicht die Orientierung zu verlieren, kann der Surfer beliebig viele Lesezeichen (Bookmarks oder Favoriten) setzen.

Um jeden Rechner im Internet einen eindeutigen Namen zuzuordnen, verwendet man das Domain Name System (DNS). In jedem Land verwaltet ein Network Information Center, kurz NIC einen vorgegebenen Teil der möglichen Namen, die als Domains bezeichnet werden. Die Firma NSI aus Kalifornien, ist die oberste Instanz in der Adressenvergabe. Sie wird deshalb auch InterNIC genannt. Alle NICs werden von den Regierungen bezahlt, verrechnen aber für jeden zugewiesenen Rechnernamen einen Kostenbeitrag. Die NICs etablieren sich als absolute Herrscher über die Domains. Wegen der Kommerzialisierung des WWW, entbrannte ein Kampf um die besten Domainnamen. So will jede Firma möglichst ihren eigenen Firmennamen in der Adresse haben. Heute werden Geschäfte in Millionenhöhe um besonders schöne Domainnamen gemacht. Die Firma Network Solution vermarktet die Commerce Domain (.com) weltweit. Adressen mit der .com Endung gelten in Europa als Statussymbol.

Jeder Name ist mit der ebenfalls eindeutigen TCP/IP-Nummer, wie zum Beispiel 186.99.12.5, verbunden. Dabei ist die Vergabe ziemlich unstrukturiert, denn weder aus dem Domain Namen, noch aus der TCP/IP-Adresse kann man schließen wo ein Computer wirklich steht. Es gibt also keine Landkarte wo alle Rechner eingezeichnet sind. Über der ganzen Welt zieht sich ein Datennetz, an dessen Knoten "Router" (Wegweiser) mit eingebauten Tabellen festlegen, wo die Daten hinkommen.

Mittlerweile ist das Internet so angewachsen, dass die Umsetzung der Domain Namen in IP-Adressen nicht mehr mittels Tabellen erfolgen kann, die auf jedem Rechner gespeichert sind. Es wurde ein Verfahren entwickelt, das als Domain Name Resolution bezeichnet wird. Im Netz verstreut liegen Domain Name Server, die für eine Gruppe von Rechnern die TCP/IP-Adressen verwaltet. Ist dem DNS ein Name unbekannt, so leitet er die Anfrage an einen Rechner weiter, der ihn verwaltet. Das System des Internet beruht also auf einer strukturierten Hierarchie. Die Entwickler des Domain Name System deklarierten sieben Top-Level Domains als Hauptzweige der Datenverarbeitung. So kann man manche URLs zumindest mit diesen Endungen entschlüsseln:

.edu = Education
.com = Commerce
.org = Non - Commercial Organisations
.int = International Organisations
.net = Network Provider
.gov = Government
.mil = Military

Dabei ist zu beachten, dass die Endungen meist auf amerikanische Institutionen und Einrichtungen hinweisen.

Die nationalen NICs errichteten systematisch, dem ISO-3166-Standard folgend, für jedes Land zweistellige Buchstabencodes, wie zum Beispiel für Österreich .at, für Frankreich .fr oder .de für Deutschland. Darunter als zweite Ebene können ähnlich den amerikanischen Top - Level Domains Kürzel wie ac (Academic Community), co (commerce) oder gv (Government) auftauchen. So heißt die Homepage der Universität Wien konsequent www.univie.ac.at. Man bemerkte, dass sich hierarchische Prinzip nicht wirklich durchsetzte, da es manche Institutionen und Betriebe erreichten, sich direkt unter der Landesdomäne anzusiedeln.

Mittlerweile versucht wieder eine Kommision unter dem Namen International Ad-Hoc Commision (IAHC) weitere Top-Level Domains einzuführen, um einen wirtschaftlichen Missbrauch der Namensvergabe vorzubeugen.

Auch werden die IP-Adressen langsam rar. So will die Internet Engineering Task Force (IETF) für das TCP/IP Protokoll 128 Bit lange Adressen verbreiten, statt der heutigen 32 Bit. Sie wollen die IPng (Internet Protocol Next Generation) einführen. Dabei müssten alle Programme fast gleichzeitig umgestellt werden, aber man könnte auch andere technische Neuheiten gleich einfügen. Derzeit sind nämlich alle User des Internets gleichberechtigt, egal ob sie gerade eine E-Mail versenden oder gerade eine Videokonferenz führen. Im Ipng sollen sogenannte Flows dafür sorgen, dass zum Beispiel Anwendungen wie Telefonieren über das Internet bevorzugt werden.

1992 erfreute man sich noch an den 64 kbps der internationalen Leitungen, schafft das heute eine Modemverbindung mit ISDN. Man entdeckte das Potential, was in den Glasfaserkabel steckte. So könnte man heute über eine Glasfaserleitung leicht ein paar Gbps übertragen. Doch tragen diese Erneuerungen nicht sehr viel zur Steigerung der Geschwindigkeit. Wo Kapazität ist, wird sie auch genutzt.

Jeder Rechner, der am World Wide Web teilnimmt, wird als Web-Site bezeichnet (site-(engl.) Aufstellungsort ). Auf so einem Web-Site lagern viele verschiedene Web-Seiten. Die Homepage bildet meistens die Anfangsseite, von dort wird auf andere Seiten der Site verwiesen.

Um das Orientieren im WWW zu erleichtern, haben es sich Firmen zur Aufgabe gemacht, Tabellen über die meist besuchtesten Seiten des Webs zu schreiben, um sie dann zu publizieren und den Benutzern zur Verfügung zu stellen. Heute übernehmen programmgesteuerte Search Engines (Suchmaschinen) diese Funktion. Dabei werden die Seiten mit relevantem Inhalt nach Stichworten und anderen Kriterien gereiht. Der Benutzer kann nun seine Suchbegriffe eingeben und erhält dann eine Reihe von Seiten, die am ehesten dem Suchbegriff zuzuordnen sind. Marktführer in den Suchmaschinen ist AltaVista™. Mit ungefähr 30 Millionen analysierten Web - Seiten und 12 Millionen Anfragen täglich sind sie zum wichtigen Bestandteil des WWW geworden.

Das Internet wird nicht nur zum Websurfen oder dem Abschicken von E-Mails benutzt. So kann man sehr einfach Software von anderen Rechnern auf seinen Computer kopieren. Dabei bedient man sich einer Methode, die schon so alt ist wie das Internet selbst.

Das FTP (File Transfer Protocoll) erlaubt es, sich beliebig viele Dateien auf den eigenen PC zu holen. Man spricht dabei von einem Herunterladen (Download) der Dateien. FTP konzentriert sich dabei auf den Kopiervorgang. Es ist aber auch möglich eigene Dateien auf einem FTP - Server zu speichern, um sie so anderen Benutzern zugänglich zu machen. Diesen Vorgang nennt man Upload (Hinaufladen).



Das Client-Server Prinzip

Dabei baut FTP auf dem Prinzip des Client / Server (Kunde / "Kellner"). Dieses System entstand erst Anfang der 90er Jahre. Vorher war die EDV von Zentralsystemen geprägt. Ein Großrechner (Host = Gastgeber) verarbeitete alle Daten zentral, so dass die Benutzer nur einen Bildschirm (Terminal) besitzen mussten. Dafür sind aber leistungsfähige Standleitungen zum Host nötig, so verlagerte man sich auf die C/S - Methode. Dabei bleiben die wichtigsten Daten natürlich auf dem Großrechner, die Verarbeitung der Daten erfolgt aber dezentral. So konnte man sich die volle Rechenleistung für die Verarbeitungen zunutze machen. So holen die Clients sich jeweils die Daten auf ihre Rechner, die sie gerade benötigen. Nach der Arbeit schickt man die bearbeiteten Dateien wieder auf den Hostcomputer. So gut die Idee im Ansatz ist, wirklich durchgesetzt hat sie sich nicht.

Das World Wide Web, das schon auf dezentrale Verarbeitung ausgerichtet ist, hat sich als sinnvoller erwiesen. Heute nennt man jeden Rechner, auf dem Daten für andere Computer bereitliegen, Server.

Im Internet gibt es auch zahlreiche Spezialanwendungen wie zum Beispiel das Chatten (Plaudern). Während eines Chats schicken sich die Teilnehmer direkt Nachrichten auf den Bildschirm. Dabei etablierte sich erst spät das IRC (Internet Relay Chat), was soviel heißt, als daß die Nachrichten nicht direkt über das Internet zu den einzelnen Teilnehmern gehen, sondern über Vermittlungsrechner (Relays).


[back to top]



Userdaten
User nicht eingeloggt

Gesamtranking
Werbung
Datenbankstand
Autoren:04508
Artikel:00815
Glossar:04116
News:13565
Userbeiträge:16552
Queueeinträge:06246
News Umfrage
Ihre Anforderungen an ein Online-Zeiterfassungs-Produkt?
Mobile Nutzung möglich (Ipone, Android)
Externe API Schnittstelle/Plugins dritter
Zeiterfassung meiner Mitarbeiter
Exportieren in CSV/XLS
Siehe Kommentar



[Results] | [Archiv] Votes: 1154
Comments: 0