Inhaltsverzeichnis
1 VORWORT 4
2 GRUNDLAGEN 5
2.1 BEGRIFFE 5
2.2 WOZU INFORMATIK? 5
2.3 DAS BINÄRSYSTEM 6
3 COMPUTER-KATEGORIEN 8
3.1 UNTERTEILUNG NACH LEISTUNG 8
3.2 UNTERTEILUNG NACH BAUWEISE 8
4 DAS INTERNET 10
4.1 EINLEITUNG 10
4.2 DER ZUGANG ZUM INTERNET 10
4.3 COMPUTERNETZWERKE 11
4.4 ALLGEMEINES ZUM INTERNET 11
4.5 GRUNDBEGRIFFE 12
4.6 DIENSTE DES INTERNET 13
5 AUFBAU UND ARBEITSWEISE EINES COMPUTERS 16
5.1 BESTANDTEILE EINES PC 16
5.2 ARBEITSWEISE EINES PC 16
6 PC-PROZESSOREN 18
6.1 GRUNDBEGRIFFE ZUR CPU 18
6.2 LEISTUNGSMERKMALE VON PCS 18
6.3 DIE INTEL-PROZESSOREN 19
6.4 AMD 21
6.5 APPLE COMPUTER 21
6.6 VIA 21
7 EINE KURZE GESCHICHTE DER COMPUTERS 22
8 INTERNE SPEICHER 23
8.1 RAM (ARBEITSSPEICHER) 23
8.2 ROM (FESTWERTSPEICHER) 23
9 EXTERNE SPEICHER 24
9.1 CONTROLLER 24
9.2 MAGNETISCHE SPEICHER 25
9.3 OPTISCHE SPEICHER 27
9.4 MAGNETO-OPTISCHE SPEICHER 28
9.5 ZUSAMMENFASSUNG 29
10 BETRIEBSSYSTEME 30
10.1 AUFGABEN DES BETRIEBSSYSTEMS 30
10.2 KLASSIFIKATION VON BETRIEBSSYSTEMEN 30
10.3 DER STARTVORGANG BEI EINEM PC 30
10.4 ÜBERBLICK ÜBER DIE WICHTIGSTEN BETRIEBSSYSTEME 31
11 BUSSYSTEME 35
11.1 DER ISA-BUS (INDUSTRY STANDARD ARCHITECTURE) 35
11.2 DER VESA-LOCAL-BUS 35
11.3 DER PCI-BUS (PERIPHERAL COMPONENT INTERCONNECTOR) 35
11.4 DER AGP-BUS (ACCELERATED GRAPHICS PORT) 35
12 EIN- UND AUSGABEGERÄTE 36
12.1 MONITOR 36
12.2 DRUCKER 37
12.3 SCANNER 38
12.4 MODEM 38
12.5 DIGITALE KAMERAS 38
12.6 SONSTIGE PERIPHERIE 39
12.7 MULTIMEDIAKOMPONENTEN 40
13 SCHNITTSTELLEN (INTERFACES) 42
13.1 DIE SERIELLE SCHNITTSTELLE 42
13.2 DIE PARALLELE SCHNITTSTELLE 42
13.3 ECP (EXTENDED CAPABILITY PORT) 42
13.4 USB (UNIVERSAL SERIAL BUS) 42
13.5 FIREWIRE (IEEE 1394) 42
14 LOKALE NETZWERKE (LAN) 43
14.1 VORTEILE EINES LAN 43
14.2 LAN-TYPEN 43
14.3 BESTANDTEILE EINES NETZWERKS 44
14.4 NETZWERKTOPOLOGIEN 44
1 Vorwort
zur fünften, überarbeiteten Ausgabe
Dieses Skript liefert einen kurzen Einblick in die Welt des PCs mit den
Schwerpunkten Hardware und Internet. Ich möchte an dieser Stelle folgende
Bücher bzw. Zeitschriften zitieren, die ich als Informationsquellen benutzt
habe:
- J.Ortmann: Einführung in die PC-Grundlagen, ECON Taschenbuch Verlag
- A. Dickschus: PC-Wissen, Wilhelm Heyne Verlag GmbH & Co. KG, München
- PC Professional, Ziff-Davis Verlag GmbH
- ... und natürlich das Internet
Die fünfte Auflage wurde stark überarbeitet - viele Kapitel wurden komplett
neu geschrieben, das Inhaltsverzeichnis wurde verkürzt, weiterführender
Stoff für "Fortgeschrittene" ist ab sofort mit einem Rahmen umgeben und
kursiv geschrieben.
für Wünsche, Anregungen und Beschwerden schicken Sie mir bitte E-Mail an:
und besuchen Sie mich im Internet unter
Viel Vergnügen mit den folgenden Seiten,
Marcel-Oliver Widi
Februar 2000
2 Grundlagen
2.1 Begriffe
Computer von englisch "to compute" = rechnen
PC personal computer
Daten Buchstaben, Wörter, Ziffern, Zahlen, Messwerte, Signale
Multimedia Oberbegriff für Daten aus den Bereichen Sprache, Musik, Grafiken,
Videos, ...
Hardware "alles, was man anfassen kann". (D.h. Prozessor, Monitor, Maus,
Drucker, Festplatte, Diskette, Motherboard, Grafikkarte, Speicher,...)
Peripherie Extern an den Computer angeschlossene Hardware (Drucker, Monitor,
Scanner, Maus, ...)
Software sämtliche ausführbare Programme, von Tabellenkalkulation (z.B.
Excel) über Datenbank (z.B. Access) und Textverarbeitung (z.B. Word) bis zu
Multimedia-Lexika (z.B. Microsoft Encarta) und Computerspielen.
Betriebssystem Spezielle Software: Ein Betriebssystem ist ein Programm, das
Befehle bereitstellt und dem Computer sagt, wie er damit arbeiten soll. Es
steuert den Rechner, leitet Daten und Befehle weiter, verwaltet den
Speicher, kontrolliert die Peripherie, etc.
kurz: Schnittstelle (Interface) zwischen Computer und Mensch.
Beispiele: Microsoft(MS)-DOS, MS-Windows 98 SE, MS Windows 2000, MS Windows
CE, UNIX, Linux, OS/2, Mac-OS, etc.
Datenverarbeitung Eingabe, Speichern, Rechnen, Vergleichen, Sortieren,
Prüfen, Ausgabe von Daten. - Wird mit Hilfe spezieller Software erledigt.
EDV elektronische Datenverarbeitung (heute auch "Informationsverarbeitung")
Informatik (formale Definition:) "Das Studium der Computer, das ihren
Entwurf, ihre Arbeitsweise und ihre Verwendung in der Datenverarbeitung
sowie die Erforschung und Entwicklung der theoretischen und technologischen
Grundlagen der Informationsverarbeitung umfasst. Die Informatik kombiniert
sowohl die theoretischen als auch die praktischen Aspekte der
Ingenieur-wissenschaften, Elektronik, Informationstheorie, Mathematik, Logik
und des menschlichen Verhaltens. Die Themenbereiche der Informatik reichen
von der Programmierung über Compilerbau, Formulierung von Algorithmen bis
hin zu künstlicher Intelligenz und Robotertechnik. In Österreich wird
Informatik seit den sechziger Jahren als Studienfach angeboten."
2.2 Wozu Informatik?
Der PC wurde früher nur professionell verwendet (Militär, Universität,
Wissenschaft, ...) - heute wird das gesamte Berufsleben vom PC beherrscht -
Korrespondenz, Kundenadressen, Organisation, Kalkulation, Datenbanken,
etc...
Besonders Telearbeit (Arbeit am PC zu Hause statt im Büro) E-Commerce
(Einkaufen via Internet) und Telebanking gewinnen von Jahr zu Jahr an
Bedeutung.
Immer wichtiger wird der PC auch im Bereich der Information (WWW,
Newsgroups) und Kommunikation (E-Mail, Internet-Telefonie).
Dazu kommen Privatanwendungen wie Haushaltsverwaltung (Strom, Telefon,...),
Multimedia (Lexika) und Spiele.
Für den einzelnen heißt das, dass er den Umgang mit Computern lernen muss,
wenn er nicht von dieser Entwicklung überrollt werden will. Heutige
Stellenangebote zeigen, dass EDV-Kenntnisse auch in nicht auf EDV
spezialisierten Berufen vielfach vorausgesetzt werden.
2.3 Das Binärsystem
Computer arbeiten mit Strom. Dort gibt es zwei Grundzustände:
Strom fließt zumeist repräsentiert durch "1"
Strom fließt nicht "0"
Die Darstellung von "Zwischenwerten" (Strom fließt in einer gewissen Stärke)
hat sich nicht durchgesetzt.
Jeder Zustand eines Computers (von der Darstellung einer Zahl bis hin zur
Tabellenkalkulation) basiert daher auf lauter (sehr vielen) Nullen und
Einsen. Die kleinste Informationseinheit eines Computers ist also eine Null
oder eine Eins, man nennt dies ein Bit (von englisch "binary digit" = binäre
Ziffer)
2.3.1 Digital und analog
Digital (von lateinisch digitus = Finger) Informationen nur im Rahmen
genau definierter Werte - Zwischenwerte sind nicht möglich. (z.B. digitales
Thermometer)
Analog (von griechisch: analogos = verhältnismäßig, proportional).
Fließende Darstellung von Werten - im Gegensatz zu digitalen Signalen können
analoge Signale beliebige Zwischenwerte annehmen. (z.B. Tachometer)
Digitalisierung Umwandlung analog ? digital (z.B. Scannen eines Fotos,
Speichern von Musik auf einer CD, Fotografieren mit digitalen Kameras)
2.3.2 Zahlendarstellung
Um nur mit Nullen und Einsen dezimale Zahlen repräsentieren zu können,
verwendet man das Binärsystem mit seinen zwei Ziffern 0 und 1. Dieses
Zahlensystem ist genauso wie das Dezimalsystem definiert, nur mit Basis 2:
Dezimal: 2638 = 2*103+6*102+3*101+8*100 = 2*1000 + 6*100 + 3*10 + 8*1
Binär: 1101 = 1*23+1*22+0*21+1*20 = 1*8 + 1*4 + 0*2 + 1*1
(es wird also lediglich der 10er durch einen Zweier ersetzt!)
Binäres Rechnen funktioniert wie folgt (Beispiel):
0+0 = 0; 0+1 = 1; 1+1 = 10 (kein 2er existiert - man könnte das auch so
schreiben:
1
+ 1
= =
1 0
Verbal: Eins plus eins = null ( eins weiter), Eins plus Null = Eins.
1 1 1
0 1 0
= = = =
1 0 0 1
Verbal: Eins plus Null = Eins, Eins plus Eins = Null (Eins weiter), etc...
Digitale Subtraktion und Multiplikation wird analog ausgeführt. (Man
verzeihe mir das Wortspiel!)
2.3.3 Zeichendarstellung
Außer den 26 Buchstaben (52 bei Unterscheidung groß/klein) werden am
Computer noch weitere Zeichen benötigt (Etwa %, &, ?, #, @, etc.) - Um die
256 wichtigsten Zeichen darzustellen, benötigt man also 256 verschiedene
Zahlen, also die binären Entsprechungen von 0-255.
Die Dezimalzahl 255 entspricht der Binärzahl 1111 1111, besteht daher aus 8
Bit. Man kann mit 8 Bit also jedes benötigte Zeichen darstellen. 8 Bit
bezeichnet man als ein Byte.
Ein Zeichen entspricht am Computer also einem Byte. Um beispielsweise die
Zeichenfolge "Teil 1" darzustellen, benötigt man daher 6 Byte (auch das
Leerzeichen ist ein Zeichen!).
Die hohen Datenmengen, die heute auftreten erfordern folgende Abkürzungen
1024 Byte = 1 KB (Kilobyte)
1024 KB = 1 MB (Megabyte)
1024 MB = 1 GB (Gigabyte)
1024 GB = 1 TB (Terabyte)
Warum immer 1024 und nicht 1000? Das liegt daran, dass 1024 eine
Zweierpotenz ist (210). Auch hier versteckt sich wieder das Binärsystem.
Die 256 Zeichen sind zumeist entsprechend dem sogenannten ASCII-Code
(American Standard Code for Information Interchange) angeordnet. Einem "n
entspricht beispielsweise das Byte 0110 1110, d.h. die Dezimalzahl 112).
Man fasst oft die beiden Vierergruppen (Halbbytes, Nibbles) zu zwei Werten
von 0-15 zusammen, dies führt zum sogenannten Hexadezimalsystem mit 16
Ziffern. (0-9, A, B, C, D, E und F) und analogen Umrechnungs- u.
Rechenregeln wie zuvor beim Binärsystem.
So lässt sich beispielsweise unser "n" kürzer als "6E" repräsentieren. (0110
= 6, 1110 = E).
3 Computer-Kategorien
3.1 Unterteilung nach Leistung
3.1.1 Supercomputer
Die Königsklasse der Rechner. Sie haben etliche Gigabyte Hauptspeicher, oft
einige Terabyte an Massenspeicher (Festplatte) und eine Rechenleistung, die
diejenige gewöhnlicher PCs um einen Faktor von einigen tausend bis Millionen
übersteigt. Supercomputer werden zur Lösung großer mathematischer Probleme
eingesetzt, wie sie bei Strömungssimulationen, Klimaforschung, Crashtests,
Wettervorhersagen, Simulation von Atombombentest etc. auftreten - folglich:
Supercomputer sind unbezahlbar.
3.1.2 Großrechner (Host, Mainframe)
Hauptrechner eines Computersystems, an das sehr viele Arbeitsstationen
angeschlossen sind und das mit Arbeitsspeicher von mehr als 100 MByte und
Festplattenkapazitäten im TByte-Bereich ausgestattet sein kann. In den 70er
Jahren waren dies die vorherrschenden Anlagen für große Betriebe (Banken,
Universitäten u.a.). Mittlerweile werden diese von den leistungsfähigen
Server-Netzwerken (s. Kapitel 14) verdrängt.
3.1.3 Workstations (Minicomputer)
Zweifach verwendeter Begriff:
i. Schneller PC mit den Aufgaben eines Großrechners.
ii. Terminal (Ein PC in einem Netzwerk, der auf Dienste eines Servers
zugreift.)
3.1.4 PCs (Mikrocomputer)
Die Bezeichnung PC kommt daher, dass nicht mehr jeder Benutzer auf einen
Großrechner angewiesen ist, sondern seinen eigenen "persönlichen" Computer
am Arbeitsplatz stehen hat.
Man beachte, dass die Grenzen zwischen den Computer-Typen heute fließend
sind. Manche PCs (besonders für Computerspieler) sind heute leistungsfähiger
als etwas ältere Großrechner.
3.2 Unterteilung nach Bauweise
Wir beschränken uns hier im wesentlichen auf PC-Typen.
3.2.1 Desktop- und Tower-PCs
Stationäre Systeme, von englisch "desktop" = Schreibtisch.
Klassisches System: Monitor, Tastatur, Maus, Bildschirm, etc..
Bei Desktop-PCs steht der Monitor auf einem kleinen Gehäuse, beim Tower
steht das (meist größere Gehäuse) neben dem Monitor oder unter dem Tisch. Je
nach Größe Unterscheidung in Mini-, Midi-, Big- und Server-Tower.
Vorteil ist die Standardbauweise, wodurch sie leicht individuell angepasst
werden können, massenweise Zusatzkomponenten erhältlich sind, und auch der
Preis verhältnismäßig niedrig bleibt.
3.2.2 Tragbare Computer
Sind gedacht für den Einsatz außer Haus (Konferenzen, Flugzeug, Bahn, ...) -
fast so leistungsfähig wie Desktop-PCs, aber deutlich teurer, durch
aufwendigere Technik (Stoßsicherheit, Stromsparmodus, TFT-Bildschirm
(s.12.1.2)) und niedrigere Stückzahlen. Sie arbeiten zumeist mit kurzlebigen
Akkus.
Früher waren sogenannte Laptops gebräuchlich, mit Preisen bis zu 100 000,-
und hohem Gewicht. ("Schlepptops") - Seit Anfang der neunziger Jahre
verbreitet sind sogenannte Notebooks im Format A4, mit allen Komponenten,
die auch ein Desktop-PC besitzt. (Soundkarte, CD-Laufwerk, Festplatte,
hochauflösender Farbbildschirm, eingebautes Modem etc.)
Port-Replikatoren und Docking-Stationen ermöglichen den einfachen Anschluss
zusätzlicher Hardware an ein Notebook.
Bei nahezu gleicher Leistung sind Notebooks allerdings etwa doppelt so
teuer. Die kleine Tastatur ist ein weiterer Nachteil ebenso wie die immer
noch kurzlebigen Akkus.
Weitere Typen sind Subnotebooks, Palmtops, Handhelds, Mini-Notebooks,
Organizer, PDAs (sehr klein, arbeiten teilweise mit Windows CE (s. 10.4.8),
häufig Anschluss-möglichkeit an größere PCs oder Telefon).
Die kleinsten sind die sogenannten Notepads oder Penbooks (keine Tastatur
oder Maus, im wesentlichen nur ein handflächengroßer schiefer-tafelartiger
Bildschirm, auf dem man mit einem speziellen Stift Daten eingeben kann.
Die sogenannten Pocket-Computer sind keine eigentlichen Computer, sondern
nur leistungsfähige Taschen-rechner mit Zusatzfunktionen wie
Adressverwaltung, Memo, Kalender, Telefonkartei etc.)
4 Das Internet
4.1 Einleitung
Wichtiger Faktor bei der Arbeit am PC, in wenigen Jahren wahrscheinlich
wichtigster überhaupt. (Information, Kommunikation, Datenaustausch,
Einkaufen, Homebanking, Unterhaltung, etc...)
Netzwerk Mehrere miteinander verbundene Computer, die Daten miteinander
austauschen.
Internet (International Network) Unzählige kleinere Computernetzwerke, die
über Kabel, Satelliten und Funk weltweit verbunden sind.
4.2 Der Zugang zum Internet
Der Zugang zum Internet ist beispielsweise mittels in Windows 98
integrierter Software (Internet Explorer) jedem möglich. Notwendig sind
(zumeist) ein Modem (s. 12.4) und ein sogenannter Internet-Provider (siehe
4.5.1), mit dem man sich (zumeist, s.u.) über die Telefonleitung verbindet
und der einen dann ins Internet weiterleitet.
Für den Anschluss des PC ans Internet stehen mehrere Optionen zur Auswahl:
4.2.1 Analoges Modem
Günstig, aber niedrige Übertragungsgeschwindigkeit und nur eine Leitung
verfügbar - d.h. entweder Telefonieren oder Surfen.
4.2.2 ISDN
(Modem oder Steckkarte) Ermöglicht höhere Übertragungsraten, zwei freie
Leitungen, etwas teurer.
4.2.3 Kabelmodem
Internetzugang via Kabelfernsehen. Relativ teuer, dafür sehr schnell (etwa
8-fache Geschwindkeit von ISDN)
4.2.4 Internet via Satellit
Derzeit noch wenig verbreitet, wesentlich höhere Übertragungsraten (bis zu
64 Megabits pro Sekunde) möglich. Einer der ersten Satelliten für das
notwendige Satellitennetz startete Anfang März 1998 - der Beginn des
Netzbetriebes ist für 2001/2002 geplant.
4.2.5 Internet via Steckdose
Existiert derzeit nur als Versuchsprojekt, (dies soll sich aber im Laufe des
Jahres 2000 ändern...).
4.2.6 ADSL
Modernster Standard für Internetzugang. Drei Leitungen frei, extrem schnell,
(noch) sehr teuer, in Österreich (noch) nicht überall verfügbar.
ADSL im Detail: Abkürzung für "Asymmetric Digital Subscriber Line" - ADSL
teilt den Kupferdraht einer herkömmlichen Telefonleitung digital in drei
unterschiedlich große Bereiche: zwei für den Datentransport und einen zum
Telefonieren. "Asymmetric" deshalb, weil Hin- und Rückkanal jeweils
unterschiedlich große Datenmengen transportieren können:
Beim Surfen im Internet müssen typischerweise nur geringe Informationsmengen
(meist Adressen von Webseiten) an den Provider übermittelt werden
("uploaden" / "Upstream"). Dies geschieht über den "kleineren" Rückkanal mit
einer Geschwindigkeit von bis zu 768 Kilobit.
Die multimedialen Inhalte mit Bildern, Animationen und sonstigen
"Datenfressern" fließen mit hoher Geschwindigkeit (bis zu 9 Megabit) durch
den "größeren" Hinkanal ins Haus ("downloaden" / "Downstream").
4.3 Computernetzwerke
Je nach Ausdehnung kann man folgende Netzwerktypen unterscheiden:
4.3.1 Lokale Netzwerke (=Local Area Network, LAN)
Netzwerk innerhalb eines Grundstücks (Raum, Gebäude). Zur genauen
Funktionsweise eines LAN siehe Kapitel 14.
4.3.2 Intranet
Firmeninternes Netzwerk, das Internet-Technologie verwendet.
4.3.3 Stadtnetze (Metropolitan Area Network, MAN)
Früher gebräuchlicher Begriff für Netze innerhalb großer Ballungsgebiete,
wie Städten.
4.3.4 Landesnetze (Wide Area Network, WAN)
Verbinden Rechner innerhalb eines Landes.
4.3.5 Weltweite Netzwerke (Global Area Network, GAN)
Ein globales Netzwerk, das über Satellit aufgebaut wird.
4.4 Allgemeines zum Internet
Häufig als "Information-Highway" bezeichnet. Das Internet kann über
zahlreiche Provider und Online-Dienste (siehe 4.5) erreicht werden. Laut
einer Anfang 2000 durchgeführten Studie ist das Internet (genau: das WWW)
bereits auf über eine Milliarde Seiten angewachsen!
Die Ursprünge des Internet finden sich im Jahr 1958 im amerikanischen
Militär. Es wurde dann zu einem Forschungsnetz erweitert, das Universitäten
und andere Forschungseinrichtungen der westlichen Welt umspannte. Heute sind
alle wichtigen Firmen und Privatpersonen im Internet vertreten, und mit
Newsgroups und E-Mail wurde das Internet um wichtige Bereiche erweitert.
Jeder direkt ans Internet angeschlossene Rechner erhält zur Identifikation
eine sogenannte IP-Adresse, (Vier Zahlen zwischen 0 und 255 getrennt durch
Punkte, z.B. 153.100.94.2), zur Kennzeichnung des Netzes, des Unternetzes
und des Rechners selbst. Da diese Nummern schwer merkbar sind, können statt
dessen auch Namen verwendet werden. Diese werden vom Domain Name Service
(DNS) verwaltet. Man kann also z.B. statt vier kryptischer Zahlen auch
einfach "microsoft.com" eingeben, um den Internet-Server von Microsoft zu
erreichen.
Vorangestellt wird diesem Namen noch "ftp://ftp." oder "http://www." je
nachdem, ob man Dateien übertragen (siehe 4.6.3) oder das World Wide Web
(siehe 4.6.5) benutzen will.
(Bsp.: ftp.crosswinds.net oder www.crosswinds.net)
Die Endungen der Internet-Adresse stehen für die Organisation der Daten,
z.B.:
ac academic (Universitäten, Hochschulen)
com company (Firmen)
edu educational (Schulen)
gov government (Regierung)
net private Seite
org organization (Vereine)
Nicht-amerikanische Internet-Adressen enden mit einer Landeskennung, z.B.:
at Österreich (Austria)
au Australien
de Deutschland
fr Frankreich
jp Japan
Beispielsweise ist "http://www.uni-linz.ac.at" die Internet-Adresse der
Universität Linz und http://www.marcelwidi.com die Adresse des Autors
(sollte eigentlich www.marcelwidi.net heißen...)
4.5 Grundbegriffe
4.5.1 Internet-(Service)-Provider (ISP)
Das sind Firmen oder Institutionen, die Teilnetze des Internet betreiben.
Das INTERNET besteht also aus den Netzen der einzelnen ISPs. Der Provider
bietet dem Kunden vor Ort einen Einwahlknoten (= Point of Presence, POP) ins
Internet an. Die Kunden werden z.B. über Modem (s. 12.4) an das LAN des
Providers angeschlossen. Dadurch zahlt der Kunde nur die Telefongebühr bis
zum Provider (in Österreich etwa öS 11,- pro Stunde abends und an
Wochenenden - bzw. öS 35,- pro Stunde sonst), und muss etwa bei
Internet-Kontakten nach Übersee kein Vermögen zahlen.
Der Provider bietet zumeist die Dienste E-Mail (siehe 4.6.1) und Newsgroups
(siehe 4.6.2) oder auch die Erstellung einer Homepage (siehe 4.6.5) an,
mitunter gegen Aufpreis.
4.5.2 Online-Dienste
(Auch Content-Provider genannt). Diese bieten im Gegensatz zu "gewöhnlichen
Providern auch Inhalte an. Deren Einstiegsseite ist nach Themen geordnet
und bietet alles mögliche - von E-Mail über Shopping, Suchprogramme und
Chats (Unterhaltung online) bis hin zu Nachrichten.
Online-Dienste sind häufig überregional (weltweit) tätig und haben regionale
Niederlassungen.
Bekannte Beispiele sind America Online (AOL), T-Online und Microsoft Network
(MSN) weltweit sowie A-Online (AON) oder Magnet in Österreich.
4.5.3 Proxy-Server
Ein Proxy-Server ist ein Rechner, der von einem Internet-Provider betrieben
wird und der die Internet-Seiten, die von den WWW-Nutzern häufig abgefragt
werden, zwischenspeichert. Wenn ein WWW-Surfer eine Webseite anwählt, prüft
der Proxy-Server, ob die Daten bereits beim Provider vorhanden sind. Ist
dies der Fall, bekommen der Surfer nur eine "Kopie", die schneller
übertragen wird als das "Original". Sind die Daten noch nicht vorhanden,
verbindet der Proxy-Server den Surfer weiter zu der gewünschten Adresse.
4.5.4 Firewall
Technik in Form von Hard- und/oder Software, die den Datenfluss zwischen
einem privaten und einem ungeschützten Netzwerk kontrolliert bzw. ein
internes Netz vor Angriffen aus dem Internet schützt. Dazu vergleicht die
Firewall die IP-Adresse des Rechners, von dem ein empfangenes Datenpaket
stammt, mit einer Liste erlaubter Sender - nur deren Daten dürfen passieren.
Unterschied zu einem Proxy: Bei einem Firewall handelt es sich um ein ganzes
Bündel von Maßnahmen und Techniken. Ein Proxy selbst ist noch keine
Firewall, er kann aber Bestandteil einer Firewall sein.
4.5.5 Webbrowser
Webbrowser bedeutet übersetzt "Netz-Schmökerer". Es handelt sich dabei um
spezielle Programme mit deren Hilfe Informationen aus Servern abgerufen
werden können.
Bekannteste Beispiele (und mit über 99% praktisch die einzigen verwendeten)
sind der Internet Explorer (aktuelle Version 5) von Microsoft (von ca. 75%
der Internetnutzer verwendet )und der von Leistungsumfang her gleichwertige
Navigator von Netscape (ca. 24%).
Browser erlauben viel mehr als nur Internet-Surfen. Man kann damit auch
Newsgroups lesen/beschicken (s. 4.6.2), E-Mail senden/empfangen, FTP (siehe
4.6.3) nutzen und vieles mehr.
Neben Text beherrschen moderne Browser - z.T. mit Hilfe sogenannter PlugIns,
AddOns oder Viewern - auch die Anzeige von Graphiken, Videoclips und
weiteren Datenformaten.
4.5.6 HTTP
(Hypertext Transfer Protocol) - beschreibt/regelt den Austausch von Daten
zwischen Internetserver und Webbrowser. Alle Internetadressen beginnen mit
"http://"
Das HTTP-Protokoll stellt die oberste von mehreren Protokoll-"Schichten" zur
Verwaltung des Internet dar:
Das sogenannte Internet Protocol (IP) ist die Grundlage dar, die das
Internet definiert;
Das sogenannte Transport Control Protocol (TCP) fungiert als Zwischenschicht
und richtet die Verbindungswege zur Datenübertragung ein;
Das HTTP-Protokoll teilt in der obersten Schicht die Daten in einzelne
Pakete auf und legt fest, wie diese verschickt werden sollen.
4.5.7 HTML
(Hypertext Markup Language) Standardisierte Seitenbeschreibungssprache für
WWW-Seiten (siehe 4.6.5) im Internet bzw. Intranet. Sie definiert sowohl die
Gestaltung, den Inhalt und die Grafik der Seite als auch die Links
(Hyperlinks, Verbindungen) zu eigenen oder fremden Seiten. Die Seiten werden
dabei nur strukturiert, der endgültige Aufbau (Einbinden von Grafiken, Wahl
der Schriftart,...) erfolgt erst im Rechner des Anwenders. Dies spart
Speicherplatz und damit Übertragungszeit.
HTML-Dokumente können mit jedem Texteditor erstellt werden, da sie aus
reinem ASCII-Text bestehen. Spezielle HTML-Editoren (z.B. MS FrontPage 2000)
erleichtern allerdings das Erstellen der Dokumente erheblich. (Keine
HTML-Kenntnisse mehr erforderlich, Word-ähnliche Benutzeroberfläche).
Außerdem gibt es für viele Textverarbeitungsprogramme (z.B. MS Word seit der
Version 97) Add-Ons, die das HTML-Format mehr oder weniger begrenzt
unterstützen.
4.5.8 Java und ActiveX
Java ist eine von der Firma SUN entwickelte Programmiersprache für
Dokumente, die dem Entwickler erlaubt, WWW-Seiten mit verschiedenen, auch
interaktiven Spezialeffekten auszustatten. (Bewegte Grafiken, ausfüllbare
Formulare,...) Zur Ausführung von Java-Programmen wird eine "Java Virtual
Machine" benötigt. Diese ist heute in den verbreiteten Browsern eingebaut.
Damit lassen sich Java-Programme auf nahezu jedem Computer, unabhängig von
dessen Hardware oder Betriebssystem ausführen (im Prinzip auch auf
Haushaltsgeräten - für diese wurde Java ursprünglich entwickelt). -
Microsoft entwickelte schließlich ActiveX als Konkurrenz zu Java.
4.5.9 Spam
(von engl. spam = Frühstücksfleisch); In Anlehnung an einen Monty Python
Sketch, in dem in jedem Nahrungsmittel spam enthalten ist, wurde die
Bezeichnung für die unerwünschte Werbung im Internet gewählt.
Spam tritt vorwiegend als unerwünschte E-Mail auf und verursacht dort
jährlich Milliarden-Dollar-Schäden weltweit (Verlust an Arbeitszeit). Auch
in den Newsgroups (s. 4.6.2) ist Spam weit verbreitet.
Gegen Spam gibt es leider keinen wirklich wirksamen Schutz und auch kein
wirksames Gesetz.
4.6 Dienste des Internet
4.6.1 E-Mail
...ist der Postdienst, der über einen Internet-Anschluss zur
Nachrichtenübermittlung dient. Mit entsprechender Software kann eine
Nachricht erstellt, geschickt, empfangen, angeschaut, ausgedruckt,
zurückgeschickt, an mehrere Teilnehmer gleichzeitig geschickt, wiederholt
oder kommentiert werden. Der Nachricht kann auch eine Datei angehängt
werden. (Anlage / Attachment)
Zur Identifikation erhält jeder Teilnehmer eine E-Mail-Adresse. Diese ist
beim Provider zumeist gratis erhältlich. Die Adresse besteht aus einer
benutzerspezifischen Kennung (z.B. mausi) und dem Namen des Anbieters (z.B.
aon.at) getrennt durch ein "@" - in diesem Fall ma...@aon.at.
Manche Server wie z.B. Microsofts Hotmail (www.hotmail.de) bieten gratis
E-Mail Adressen über das WWW für jedermann an, mit dem großen Vorteil seine
Mail weltweit lesen zu können. (Notwendig ist nur mehr ein Internetzugang.)
Zum E-Mail empfangen/senden ist keine eigene Software erforderlich, es
genügt ein Webbrowser (siehe 4.5.5) wie Netscape Navigator oder Internet
Explorer. Spezielle Mail-Programme wie MS Outlook bieten allerdings
zusätzliche Funktionen, wie Terminplaner und Adressverwaltung.
Vorteile: Nahezu verzögerungsfreier Versand von Daten (Text, Bilder,
Programme) in alle Welt, kein Porto notwendig.
Nachteile: "Hardware" - also Kühlschränke, Blumen, Torten... (noch) nicht
digital versendbar - wir warten auf Star Trek...
4.6.2 Newsgroups
Auch Usenet genannt. Die Newsgroups sind ein Diskussionsforum, geordnet nach
Themen (Anfang 2000 bereits über 30.000), wo jedermann Beiträge ähnlich wie
bei E-Mail einsenden kann, die dann in einer Liste aufscheinen und von jedem
gelesen und beantwortet werden können. (Also eine Art übersichtliches
internationales "schwarzes Brett") Voraussetzung ist ein Webbrowser
(Netscape oder Internet Explorer) oder ein spezieller "Newsreader" (Programm
zum News lesen)
Die Diskussionsthemen sind nahezu unbegrenzt, sie reichen von der
Besprechung von Computerthemen über Fanclubs und Politik bis zu weniger
seriösen Themengruppen, wo teilweise auch gesetzwidrige Inhalte (Raubkopien
von Software, Nazipropaganda, Kinderpornographie,...) veröffentlicht werden.
Ein weiterer Minuspunkt ist die Überschwemmung der Newsgroups mit Spam. -
Man sollte beim "Posten" (Senden von Nachrichten an Newsgroups) nie seine
wahre E-Mail Adresse angeben, da diese Adressen von Suchrobotern gesammelt
und archiviert werden - mit dem Ziel, diese mit Spam zu beschicken.
Eine Abhilfe gegen zweifelhafte Inhalte stellen sogenannte "moderierte
Newsgroups dar - dies sind Foren, in denen nur "kontrollierte" Beiträge
veröffentlicht werden.
Am besten benützt man die Newsgroups über eine Suchmaschine wie etwa
www.deja.com. Diese ermöglicht effizientes Finden von Information ohne Spam
und Anzeigen aller je eingesandten Beiträge (ausgenommen binäre Dateien wie
Bilder oder Programme).
4.6.3 FTP (File Transfer Protocol)
Möchte man nicht nur Nachrichten, sondern auch Daten über das Internet
austauschen, ist das Datenübertragungsprotokoll FTP die beste Wahl. Zwar
kann man auch mit Hilfe eines Webbrowsers Daten "herunterladen", doch wird
dies von FTP sehr erleichtert, man hat dann alle Möglichkeiten, wie man sie
beispielsweise vom Windows-Explorer kennt. (In einem FTP-Server sind die
Dateien nach Verzeichnissen wie auf einer Festplatte geordnet).
Zum Bearbeiten von Daten über FTP gibt es eigene Software, wie z.B. WS-FTP.
Freilich erlaubt nicht jeder Server jedem das "Downloaden" aller Daten. Man
muss sich zumeist mit einem Namen und Kennwort identifizieren. (In der Regel
reicht eine E-Mail Adresse als Passwort und der Name "guest" oder "anonymous
")
4.6.4 Suchdienste
- Suchmaschinen (spezielle Internetseiten zum Auffinden anderer Seiten wie
etwa www.alltheweb.com, www.altavista.com, www.webcrawler.com,
www.hotbot.com, www.yahoo.de, ...)
- Metasuchmaschinen (durchsuchen mehrere Suchmaschinen auf einmal, z.B.
Metacrawler oder Profusion); bieten die besten Chancen im Internet etwas zu
finden)
4.6.5 Das World Wide Web (WWW)
Das WWW ist der meistgenutzte Dienst des Internet. Die Medien setzen die
beiden Begriffe fälschlicherweise überhaupt gleich.
Unter dem WWW versteht man Dokumente, die neben Texten und Grafiken auch
Ton- und Bildsequenzen sowie kleine Programme (Java-Applets, ActiveX)
enthalten können. Der wichtigste Inhalt sind allerdings die sogenannten
Hyperlinks - moderne Querverweise - Dies sind (zumeist) farbig
hervorgehobene und unterstrichene Schlüsselworte, -sätze oder sogar Bilder,
die auf andere Internetseiten, Dateien oder auch auf E-Mail-Adressen
verweisen. Ist beispielsweise in einem Dokument ein Artikel zitiert, könnte
man diesen durch Anklicken mit der Maus aufrufen und lesen. Dieser Artikel
kann wiederum weitere Verweise auf weitere verwandte Themen enthalten, so
dass man sich - wenn man ein interessantes Thema gefunden hat, durch
ständiges Klicken auf (Hyper)links auf einer Welle von Informationen
fortbewegt. Daher auch der Ausdruck "Surfen" für das Durchforsten des
Internet.
Unter "Offline-Surfen" versteht man das Betrachten von Seiten ohne
bestehende Internet-Verbindung, die zuvor (z.B. über Nacht zum billigeren
Tarif) vom Internet geladen wurden oder sich auf CD-ROMs befinden, die
häufig Computerzeitschriften beiliegen.
Freilich verweisen Hyperlinks nicht nur auf Dokumente, die auf ein und dem
selben Rechner liegen, sondern unter Umständen auch auf einen Rechner am
anderen Ende der Welt. Zum Beispiel könnte man den Link "Lemuren in
Madagaskar" auf einer Japanischen Seite über bedrohte Primaten anklicken,
mit einem Mausklick E-Mail an den Präsidenten von Australien schicken oder
sich dieses Skriptum aus dem Web "downloaden".
Internet-Adressen, die einem Link entsprechen, nennt man URLs (Uniform
Resource Locators) und verweisen in der Regel auf eine Datei eines Servers
im WWW. Beim erstmaligen Einsteigen in das Internet muss man ein paar
solcher Adressen kennen (zum Beispiel "http://www.shareware.com", eine
Adresse zum Auffinden preisgünstiger Software.) - in weiterer Folge klickt
man sich aber - ohne die URLs bewusst zu verwenden - einfach durch das
weltweite multimediale Informations-angebot. (Ein Klick auf einen Hyperlink
entspricht ja eben dem Aufruf eines URL).
Die Startseite eines Internetservers nennt man auch Homepage.
So wie man etwa bei Hotmail eine gebührenfreie E-Mail-Adresse bekommen kann,
bietet z.B. Crosswinds (www.crosswinds.net) gratis, unlimitiert und
werbefrei (!) Raum für eigene Homepages.
Unter Cookies versteht man kleine Informationseinheiten, die von einem
Webbrowser erstellt werden und Informationen über das Surfverhalten eines
Benutzers auf seinem Rechner abspeichern. Eigentlich gedacht zur
Erleichterung des Surfens (Zwischenspeichern von Informationen) wird heute
auch Missbrauch damit getrieben (Erstellung von Benutzerprofilen - Big
Brother is Watching You).
4.6.6 Internet-Telefonie
Telefonieren über das Internet, eventuell mit Bildübertragung mittels einer
"Web-Cam".
Vorteile: Nur der günstige Internettarif ist zu zahlen, auch wenn der
Empfänger weit entfernt wohnt, Videokonferenzen mit mehreren Teilnehmern
möglich.
Nachteile: umständlicher Verbindungsaufbau, (noch) schlechte Bild- und
Tonqualität, Empfänger muss zum Zeitpunkt des Anrufs online sein.
5 Aufbau und Arbeitsweise eines Computers
5.1 Bestandteile eines PC
- CPU (Central Processing Unit, Mikroprozessor) rechnet und steuert alle
Operationen
- Taktgeber verbindet CPU mit Quarzkristall (siehe 5.2.4)
- I/O-Elemente (Ein-/Ausgabeelemente) - zur Umwandlung eingehender Signale
(z.B. Tasten-druck, Mausklick) in Binärsprache und umgekehrt (z.B.
Bildschirmausgabe, Ausdruck)
- RAM (Random Access Memory, Arbeitsspeicher) enthält derzeit bearbeitete
Daten, ist flüchtig (wird nach Ausschalten des PC gelöscht)
- ROM (Read Only Memory, Festwertspeicher), nicht löschbar, dauerhaft,
enthält für Rechnerstart wichtige Daten
- Grafikkarte Sorgt für die Darstellung von Daten am Bildschirm.
- Motherboard (Systemplatine - siehe Abbildung rechts) mit CPU, Steckplätzen
für Karten, Taktgeber, I/O-Elementen, RAM, ROM
- Externe Speicher Festplatte, Disketten-Laufwerk, CD-ROM-Laufwerk,
DVD-Laufwerk, ZIP-Laufwerk...
- Bus Gesamtheit aller Leitungen, die die einzelnen Komponenten des PC
miteinander verbinden, sorgt für Daten- und Befehlstransport
- Netzteil sorgt für Stromversor-gung
- Schnittstellen (Stecker) für Ein- und Ausgabegeräte (Monitor, Maus,
Drucker, Tastatur,...)
- Diverse Kabel, Schalter, Lämpchen
- Gehäuse (Tower, Desktop-Gehäuse, ...)
5.2 Arbeitsweise eines PC
moderne Computer arbeiten im wesentlichen durch das Zusammenspiel zwischen:
- Steuerwerk
- Rechenwerk
- Arbeitsspeicher
- Ein-/Ausgabesteuerung
5.2.1 Der Mikroprozessor (CPU, Central Processing Unit)
Die CPU besteht im wesentlichen aus einem kleinen Siliziumplättchen (Chip)
mit Millionen von elektronischen Bauteilen (hauptsächlich Transistoren) und
enthält Steuer- u. Rechenwerk
Rechenwerk führt arithmetische (+) und logische (und, oder, nicht)
Operationen durch - die Daten (Operanden) werden in sogenannten Registern
(sehr schneller Speicher) abgelegt
Steuerwerk koordiniert das Zusammenspiel von Rechenwerk und Arbeitsspeicher;
Befehlsregister (ebenfalls schneller Speicher) enthält eingelesene
Programmbefehle; werden interpretiert und an Rechenwerk bzw. Arbeitsspeicher
weitergegeben.
Arbeitsspeicher dient zur Ablage von Daten und Programmbefehlen;
Speicherbereiche werden mit Adressen nummeriert; man unterscheidet zwischen
flüchtigem (RAM) und nicht-flüchtigem Speicher (ROM) - vgl. Kapitel 8.
5.2.2 Das Bussystem
Gruppe von Leitungen, die alle Teile des Computers verbindet; sorgt für
Verständigung zwischen diesen Systemen.
Man unterscheidet in:
Der Datenbus regelt die Datenübertragung (Datenwortbreite derzeit 8, 16, 32
oder 64 Bit).
Der Adressbus steuert die Auswahl der Einzelgeräte und Adressierung
innerhalb der Geräte.
Der Steuerbus regelt die Busanforderung, Arbitrierung (bestimmt, welche
Hardware den Bus nutzen darf), Interrupts (Mitteilung an den Prozessor) und
Handshaking (Kommunikationsprotokoll).
Der Versorgungsbus schließlich regelt die Stromversorgung und die
Taktleitungen. Bei seriellen Bussystemen gibt es nur eine Leitung als
Busstruktur.
Außerdem unterscheidet man zwischen unidirektionalen und bidirektionalen
Leitungssystemen.
5.2.3 Die Ein-/Ausgabesteuerung
Regelt Verbindung zwischen Rechner und Benutzer über Kontaktstellen wie
Tastatur, Maus und Monitor.
5.2.4 Der Taktgeber
Verbindet die CPU mit einem Quarzkristall; dieser Kristall wird durch Strom
zum Schwingen gebracht, die einzelnen Schwingungen sorgen für einen
periodischen Takt, den Grundtakt der CPU; ohne einen bestimmten Takt ist
keine ordnungsgemäße Informationsverarbeitung möglich.
Üblich sind heute schon Taktfrequenzen von mehr als 800 Millionen
Schwingungen pro Sekunde. (= 800 Mio. Hertz ? 800 MHz).
Zur Taktfrequenz siehe auch 6.2.3.
Folgende Abbildung veranschaulicht das Zusammenspiel der einzelnen
PC-Komponenten.
(Für eine genauere Beschreibung der einzelnen PC-Komponenten siehe die
folgenden Kapitel)
6 PC-Prozessoren
Aufgrund der rasenden Entwicklung am Prozessorsektor muss erwähnt werden,
dass besonders die in diesem Kapitel vorgestellten Fakten sehr schnell
überholt sein werden. So verdoppelt sich etwa im Schnitt alle 18 Monate die
Rechengeschwindigkeit der Prozessoren ("Moore's Law"). Die vorliegenden
Daten beruhen auf dem Stand von Februar 2000.
Aufgrund ihrer weiten Verbreitung beschränken wir uns hier im wesentlichen
auf Prozessoren der Firmen INTEL und AMD.
6.1 Grundbegriffe zur CPU
6.1.1 Cache-Speicher
Ein schneller Pufferbereich, der Daten zwischenspeichert und diese immer
wieder sehr schnell zur Verfügung stellen kann. Es gibt mehrere Cache-Arten:
Solche, die Daten aus dem RAM in CPU-Nähe puffern (Hardwarecache).
Solche, die Daten von der Festplatte im RAM zwischenlagern (z.B. Smartdrive)
(Softwarecache, also Programme - dieser Cache-Typ gehört also nicht in
dieses Kapitel.)
Typen von Hardwarecache:
L1-Cache (First-Level Cache)
Befindet sich auf dem Chip des Prozessors. Ein kleiner (weniger als 1MB),
dafür sehr schneller Speicher, der die am häufigsten genutzten Befehle für
den Prozessor bereithält.
L2-Cache (Second-Level Cache)
Deutlich schnellere Speicherbausteine, extrem teuer - zweiter
Zwischenspeicher zwischen Prozessor und Arbeitsspeicher.
L3-Cache
Erstmals im AMD K6-III Prozessor (siehe 6.4.1) enthalten; zusätzlicher
Zwischenspeicher für noch mehr Geschwindigkeit.
6.1.2 Front Side Bus (FSB)
INTELs Bezeichnung für den Systembus, der die CPU mit dem Hauptspeicher
verbindet. 133 MHz FSB bedeutet etwa, dass nicht der Rechner, sondern der
Prozessorbus mit 133 MHz getaktet ist, wie es bei modernen Prozessoren (z.B.
Pentium III) üblich ist.
6.1.3 CISC und RISC
CISC (Complex Instruction Set Computing, komplexer Befehlssatz)
Üblich bei älteren Computern. Prozessor beherrscht viele Operationen, ist
dadurch aber auch teurer und langsamer.
RISC (Reduced Instruction Set Computing, reduzierter Befehlssatz)
Idee: Nur etwa 20% der Prozessorbefehle werden häufig gebraucht, man lässt
die anderen einfach weg. Effekt: Weniger Transistoren werden gebraucht,
einfachere Befehle werden schneller verarbeitet, Prozessoren werden
billiger.
Weiterer Vorteil: Mehrere interne Bussysteme und voneinander unabhängige
Verarbeitungseinheiten, dadurch ist Parallelverarbeitung teilweise möglich.
6.2 Leistungsmerkmale von PCs
6.2.1 Länge des Maschinenwortes
Diese gibt an, wie viele Bytes ein Prozessor "gleichzeitig" bearbeiten kann.
(D.h. immer ein Vielfaches von 8 Bit). Verbreitet sind heute 32 und 64
Bit-Prozessoren.
6.2.2 Die Breite des Bussystems
Gibt die Leistungsfähigkeit von Adress- bzw. Datenbus an. Dazu zwei
Beispiele:
Ein Rechner mit einem 16-Bit Datenbus (z.B. Intel 8086) kann gleichzeitig 16
Stromimpulse (also 16 Bit-lange Zahlen oder 2 Zeichen) transportieren.
Ein Rechner mit einem 20-Bit Adressbus (ebenfalls Intel 8086) kann
gleichzeitig 220 Speicherzellen zu je einem Byte (und damit gleich 1 MB an
Daten) ansprechen.
Daher ist es wichtig, dass die Bitzahl von Adress- u. Datenbus möglichst
hoch sind.
6.2.3 Der Prozessortakt
Wie schon erwähnt, sorgt ein schwingender Quarzkristall für den Grundtakt
des Prozessors. Je schneller er schwingt, desto kleiner ist die kleinste
Zeiteinheit des Prozessors und desto schneller rechnet also der Prozessor.
6.2.4 Der Systemtakt
Die externe Taktrate, auch "Systemtakt" genannt, besagt, mit welcher
Geschwindigkeit der Prozessor auf den L2-Cache und das RAM zugreift.
(Entspricht also dem Takt des FSB). Bei Pentium-III Rechnern ist der interne
Takt bis zu 8 mal so hoch wie der externe.
Beim Prozessorkauf sollte man unbedingt auch den Systemtakt berücksichtigen!
Ein PIII-667 mit 133 MHz Systemtakt ist einem PIII-700 mit nur 100 MHz
Systemtakt also vorzuziehen!
Den Quotienten aus Prozessortakt und Systemtakt bezeichnet man als
Multiplikator. Bei einem Pentium III-800EB Coppermine Prozessor (s. 6.3.4)
beträgt der Systemtakt 133 MHz, der Prozessortakt 800 MHz, der Multiplikator
ist also 6. Man kann den Multiplikator häufig manuell umstellen und dadurch
den Prozessortakt erhöhen - dies nennt man dann "Overclocking".
6.2.5 Weitere Leistungsmerkmale
- Wie groß/wie schnell ist der Arbeitsspeicher?
- Wie groß ist der Cache?
- Wie schnell ist die Festplatte? Wie schnell ist die Grafikkarte?
Wichtig ist auch, dass alle Komponenten aufeinander abgestimmt sind. Ein
neuer PC benötigt etwa eine schnellere Festplatte und mehr Speicher als ein
älterer. Auch sind für unterschiedliche Anwendungen auch unterschiedliche
Merkmale von größerer oder kleinerer Bedeutung.
6.3 Die INTEL-Prozessoren
6.3.1 Der Pentium Pro
1995 vorgestellt, heute nur mehr als Netzwerkserver verwendet.
Vorteile: Optimiert für 32-Bit Programme (z.B. Windows NT)
Nachteil: Bei 16-Bit Programmen sogar langsamer(!) als Pentium.
6.3.2 Der Pentium MMX
Dieser Prozessor war gedacht für den steigenden Einsatz von
Multimedia-Anwendungen. (MMX = Multimedia Extensions, Multimedia
Erweiterungen).
Vorteile: (u.a.) 57 neue Prozessor-Befehle für Multimedia-Anwendungen
Nachteile: Mathematischer Coprozessor langsam
Nicht MMX-optimierte Programme können MMX nicht nutzen
6.3.3 Der Pentium II ("Klamath" und "Deschutes")
Im Prinzip ein Pentium Pro mit zusätzlicher MMX Einheit und Taktraten bis
450 MHz.
Der Pentium II verwendet einen neuartigen Steckplatz für die CPU, den
sogenannten "Slot 1". Ein ziemlich großes Gehäuse beherbergt den Prozessor,
den Lüfter und den 512 KB L2-Cache, insgesamt 7,5 Millionen Transistoren.
Seit dem Pentium II mit 350 MHz trägt die Familie den Codenamen "Deschutes
(davor "Klamath"). Der Deschutes besitzt bereits einen Datenbus, der mit
100 MHz getaktet ist.
6.3.4 Der Pentium III ("Katmai", "Xeon", "Coppermine")
Neuester INTEL-Prozessor mit Slot 1 (s.o); vorgestellt wurde der Katmai
Anfang 1999, das neueste Modell heißt Coppermine. Die Unterschiede zum
Pentium II sind gering:
- ISSE (spezieller 3D-Befehlssatz, vergleichbar mit AMDs 3D Now! siehe
6.4.1)
- 32 KB L1-Cache
- L2-Cache mit halbem Prozessortakt
Taktraten: (Februar 2000): 450 - 800 MHz
Die neuen ISSE-Befehle:
Bei der neuen Befehlserweiterung namens ISSE (Internet Streaming SIMD
Extension) ergänzte Intel den Registersatz um 8 gänzlich neue Register, die
gleich 128 Bit breit sind. Diese sind aufgeteilt in 4 Fließkommaregister von
je 32 Bit Genauigkeit. Die neuen Befehle lassen sich u.a. gut für
3D-Transformationen benutzen. Zusätzlich zu den Befehlen, die sich auf die
neuen Register auswirken, besteht ISSE noch aus mehr: Es gibt einige
zusätzliche MMX-Befehle, die u.a. für MPEG-Codierung nützlich sind.
Besonders interessant sind die "Prefetchbefehle", mit denen man den
Prozessor anweisen kann, eine Speicherstelle im voraus anzufordern. Das ist
nützlich, da sich dann beim eigentlichen Ladebefehl der zu ladende Wert mit
hoher Wahrscheinlich schon im Cache befindet. Außerdem können
SIMD-Schreibbefehle am Cache vorbei direkt in den Hauptspeicher geleitet
werden.
Der Xeon-Prozessor:
Der Pentium III "Xeon" erlaubt die Verwendung von bis zu vier Prozessoren
gleichzeitig und wird vor allem in Netzwerk-Servern (s. Kapitel 14)
verwendet. Dieser Prozessor ist allerdings sehr teuer (schnellerer und
größerer L2-Cache).
Das neueste Modell (Stand Februar 2000):
Der Pentium III-EB "Coppermine" ist die neueste Version des Pentium III. Er
wird in 0.18 ? Technik gefertigt (d.h. der Abstand der Transistoren beträgt
0.18 Mikron), der FSB läuft mit bis zu 133 MHz, der L2-Cache wurde
vergrößert.
6.3.5 Die Celeron-Familie ("Covington" und "Mendocino")
Der zunehmende Druck der Konkurrenz (besonders AMD - s. 6.4) bewog INTEL
dazu, endlich leistungsfähige Prozessoren zu einem günstigen Preis
herzustellen. Diese wurden unter dem Nam,en Celeron auf den Markt geworfen
und sind in vergleichbaren Taktraten wie der PIII erhältlich.
Ein schneller Celeron ist heute vom Preis-/Leistungsverhältnis her die beste
CPU.
Den Anfang machte der (aufgrund des fehlenden L2-Caches erfolglose) Celeron
300 (Codename "Covington"). Mittlerweile sind aber mit dem Celeron 300A und
weiteren Modellen bis 500 MHz Celeron Prozessoren mit 128 KB L2-Cache
erhältlich (Codename "Mendocino"), die ein hervorragendes
Preis-Leistungsverhältnis bieten, und den "normalen" Pentium III-Rechnern
kaum nachstehen. (Lediglich kleinerer L2-Cache mit langsamerer Zugriffszeit)
Neue Celeron Prozessoren benötigen wieder einen neuen Steckplatz, den
sogenannten "Sockel 370", (der billiger zu produzieren ist als der Slot 1)
die älteren stecken im "Slot 1", wie der P II und der P III)
6.4 AMD
Texanische Firma, gegründet 1969, seit der Entwicklung des superschnellen
Athlon (s. unten) die Hauptkonkurrenz für INTEL, da AMD-Prozessoren zu INTEL
voll kompatibel sind.
6.4.1 Der K6-2
Nach dem eher erfolglosen K6 (1997) stellte AMD im Juni 1998 den K6-2 vor
und erregte damit großes Aufsehen. Der K6-2 enthält nicht nur die
MMX-Technologie, sondern verfügt als erster Prozessor überhaupt über einen
integrierten 3D-Befehlssatz, die sogenannte 3D Now!-Technologie, über die
sich vor allem Computerspieler freuen, da Spiele mit 3D-Grafik davon
profitieren können. Jedoch auch andere Programme (z.B.
Spracherkennungssoftware oder Filmabspielprogramme können 3D-Now nutzen.)
Voraussetzung ist allerdings - wie bei MMX - dass die Software die
zusätzlichen Befehle auch unterstützt.
1998 konnte AMD seinen Marktanteil mit 16% bereits mehr als verdoppeln,
nicht zuletzt aufgrund des besten Preis-Leistungs-Verhältnisses aller
Prozessoren.
Die Nachteil der K6-2 waren die schwache Leistung der eingebauten FPU (des
mathematischen Coprozessors) und die Tatsache, dass der L2-Cache nicht so
schnell ist wie beim Pentium II.
6.4.2 Der K6-III
Der nächsthöhere AMD-Prozessor ist der K6-III, der seit März 1999 mit 400
und 450 MHz verfügbar ist, und schneller läuft, als ein gleichgetakteter
INTEL-Prozessor (Grund dafür sind ein schnellerer L2-Cache und zusätzlicher
L3-Cache) und das zu einem niedrigeren Preis!
6.4.3 Der Athlon
Seit Juli 1999 verfügbar ist AMDs Athlon (früher bekannt als K-7), der das
Kunststück geschafft hat, als erster Prozessor - bei niedrigerem Preis als
ein gleichgetakteter INTEL Prozessor - sogar noch schneller zu sein. Der
Athlon nimmt derzeit die Spitzenposition am PC-Prozessorsektor ein. Der
Athlon ist Februar 2000 bereits mit 800 MHz lieferbar und die derzeit
schnellste INTEL-kompatible CPU.
Bereits seit Ende 1999 gibt es Athlon Versionen, die - aufgrund der
Verwendung eines speziellen Kühlkörpers - mit über 1GHz getaktet sind!
(Diese sind allerdings sehr teuer!)
Da AMD derzeit die schnellsten Prozessoren für PCs liefern kann, setzen
bereits vielen renommierte Firmen auf AMD statt auf INTEL. (Anfang Februar
sind Coppermine Prozessoren noch rar).
Besonderheiten: 3D Now!, 128 KB L1-Cache, L2-Cache mit vollem Prozessortakt.
6.5 Apple Computer
Apple Computer sind (und waren immer schon) von hoher Qualität, sehr
benutzerfreundlich, sehr beliebt und sehr leistungsfähig, allerdings nur
eine beschränkte Konkurrenz für INTEL, da sie nicht IBM-kompatibel sind. Es
ist nur ein beschränkter Datenaustausch möglich, was aufgrund der weiten
Verbreitung der IBM-kompatiblen ein Problem ist. Dennoch schwören viele
Benutzer auf Apple - die Verbreitung ist mit 3% dennoch vergleichsweise
gering.
Apple verwendet für seine Computer Prozessoren der Firma Motorola. Ein
aktuelles Modell ist die sogenannte PowerPC G4-CPU, die in Apples neuesten
Geräten Verwendung findet.
6.6 VIA
Taiwanesische Firma, die praktisch alle verbliebenen INTEL-Konkurrenten
aufkaufte.
7 Eine kurze Geschichte der Computers
500 v. Chr. erste Rechenmaschine: Abakus (China), wird teilweise heute noch
benutzt (in Asien).
17. Jhdt. Pascal, Schickard und Leibniz bauen die erste mechanische
Rechenmaschine.
1774 Die erste zuverlässig funktionierende Rechenmaschine wird von Philip
Hahn konstruiert.
1804 Jacquard konstruiert einen mechanischen Webstuhl, der mit Lochkarten
gesteuert wird.
1833 Charles Babbage definiert Aufteilung eines Prozessors in Steuer-,
Rechenwerk u. Speicher.
1941 Der erste elektrische Rechner ist der "ZUSE Z3" von Konrad Zuse, er
arbeitet programmgesteuert, nicht manuell und besitzt 2.000 Relais und
Speicher für 64 Zahlen.
1946 Erster elektronischer Rechner ENIAC, Elektronenröhren statt Relais,
2.000 mal schneller
1947 "von Neumann'sches Prinzip" (John v. Neumann) - Arbeiten mit Speicher
statt Lochkarten
1948 Erfindung des Transistors (viel kleiner als die Elektronenröhre, wird
nicht so heiß)
1955 TRADIC - erster volltransistorierter Computer
1958 Erfindung des IC (Integrated Circuit = integrierter Schaltkreis),
Bauteile auf engstem Raum.
1969 Die Fa. Busicom beauftragt INTEL, einen Chipsatz für eine
Rechenmaschine zu entwickeln.
1971 INTEL bringt den 4004 auf den Markt (Datenbreite von vier Bit, "erster
Computer auf einem einzigen Chip" (=Mikroprozessor), Taktfrequenz 108 kHz
(!) und 2.300 Transistoren.
1974 Der Nachfolger des 4004 ist der 8080. INTELs Rivale Motorola
präsentiert den 6808.
1975 Die Firma Advanced Micro Devices (AMD) stellt den 8080A vor. Zwei
ehemalige Intel-Mitarbeiter bringen den Z80 auf den Markt. Bill Gates und
Phil Allen gründen Microsoft
1976 Die Studenten Steve Jobs und Stephen Wozniak bauen in einer Garage den
ersten Apple PC.
1977 Apple bringt den legendären Apple II mit Motorola 6502-Prozessor auf
den Markt.
1978 Mit dem 8086, einem 16-Bit-Prozessor, beginnt die Erfolgsgeschichte von
INTELs 80x86-Familie. Alle INTEL-Prozessoren, die in den Folgejahren
entwickelt werden, sind abwärtskompatibel zum 8086. (Anfangs 29.000
Transistoren und eine Taktfrequenz von 4,77 MHz).
1979 Motorola bringt den 68000, einen 16-Bit-Prozessor mit 68.000
Transistoren, auf den Markt.
1981 Die Motorola-CPU 68000 ist leistungsfähiger als der Intel-Prozessor
8088, Motorola kann aber nicht liefern; deshalb beschließt IBM, seinen PC
mit INTELs 8088 auszustatten und gibt die IBM-PC-Architektur für den Nachbau
frei. Aufgrund der Erwartung, dass IBM künftig auch auf dem PC-Sektor das
Marktgeschehen bestimmen wird, entschließen sich zahlreiche Hersteller, ihre
PC-Modelle am IBM-Vorbild auszurichten. - Der IBM-kompatible Rechner (d.h.
Prozessor von INTEL und Betriebssystem von Microsoft) tritt seinen Siegeszug
an.
1982 Mit dem 80286 stellt Intel eine neue 16-Bit-CPU mit fast 130.000
Transistoren vor.
1984 Apple liefert den ersten Macintosh aus;
1985 Das 32-Bit-Zeitalter bricht mit INTELs 80386 (275.000 Transistoren,
Takt 20-33 MHz) an.
1986 Commodore bringt den Heimcomputer Amiga mit 68000er Prozessor auf den
Markt.
1987 IBM kündigt die PS/2-Reihe an.
1988 Cyrix wird gegründet. Das Unternehmen fertigt zunächst mathematische
Coprozessoren.
1989 INTELs 80486 mit erstmals integriertem mathematischen Coprozessor
erscheint.
1990 Mit der Entwicklung von HTML beginnt der Siegeszug des WWW
1991/92 Cyrix und AMD produzieren die ersten INTEL-kompatiblen Prozessoren
(Clones)
1992 Microsoft bringt Windows 3.1 heraus
1993 Der INTEL Pentium erscheint (der Name kann im Gegensatz zu "586
geschützt werden.) Er besitzt über 3,1 Millionen Transistoren, der Takt
liegt anfangs bei 60 oder 66 MHz und kann in einem Taktzyklus zwei Befehle
ausführen. ("superskalares Arbeiten")
1995 Windows 95 wird in nur drei Monaten 7 Millionen mal verkauft. Der
Pentium Pro erscheint.
1997 Der Pentium II wird vorgestellt.
1998 Ein Prototyp-Chip von IBM durchbricht als erster die 1 GHz Schallmauer
für Prozessoren.
1999 Der INTEL Pentium III und AMDs Athlon kommen auf den Markt
2000 Windows 2000 wird in vier Varianten präsentiert.
8 Interne Speicher
Werden in Halbleitertechnologie gefertigt, sehr schnelle Zugriffszeit (< 10
ns).
Es gibt sie in veränderbarer Form (RAM) und fester Form (ROM). Der Nachteil
der internen Speicher ist ihre begrenzte Kapazität (ein paar 100 MB RAM in
modernen PCs) und die Flüchtigkeit beim RAM. Abhilfe bieten externe Speicher
wie Festplatten oder CD-ROMs. (siehe Kapitel 9).
8.1 RAM (Arbeitsspeicher)
(= Random Access Memory) Nach Prozessortakt und Busbreite (siehe 6.2)
wichtigstes Kriterium für einen schnellen PC. Im RAM werden Programme oder
Programmteile während der Ausführung abgelegt, nachdem sie von Festplatte
oder CD geladen wurden. Da das RAM viel schneller arbeitet als externe
Speicher (siehe Kapitel 9), bringt mehr RAM auch mehr Leistung, da z.B. die
Festplattenzugriffe weniger werden. Zuwenig RAM kann sogar dazu führen, dass
manche Programme gar nicht mehr ausführbar sind. Durch Aufrüsten eines
langsamen PCs mit RAM (sehr einfache Prozedur) lässt sich also zumeist eine
Leistungssteigerung erreichen.
Moderne PCs (Pentium III, Windows 98) benötigen für ein vernünftiges
Arbeitstempo - je nach verwendeter Software - etwa 64-512 MB RAM - das
entspricht einer Steigerung um einen Faktor von etwa 10.000 gegenüber 1980
(!)
Das RAM ist flüchtig, (wird nach Ausschalten des PCs, bei einem Absturz oder
Stromausfall gelöscht (d.h. häufiges Abspeichern von Dokumenten ist wichtig,
um Datenverluste zu vermeiden.).
Man unterscheidet im wesentlichen zwei verschiedene Typen von RAM:
1. DRAM (Dynamisches RAM) Jedes Bit wird in einem Kondensator gespeichert,
d.h. der Speicher muss laufend (alle paar Millionstel Sekunden) aufgefrischt
werden.
Ältere PCs (bis 1997) verwenden noch die Variante EDO-RAM (Extended Data
Output RAM)
Pentium II Prozessoren verlangen bereits SDRAM (Synchronous DRAM). Ganz neu
sind die sehr schnellen DDR-SDRAM (Double Date Rate SDRAM), RDRAM
(Rambus-DRAM) und VCM (Virtual Channel Memory).
2. SRAM (Statisches RAM) wird z.B. in Cache-Speichern verwendet (vgl. 6.1);
Bits werden durch "Kippschalter" gespeichert, Zustand bleibt solange
erhalten, bis er erneuert wird.
Eine weitere Unterscheidung liegt in der Bauweise der RAM-Chips. Hier gibt
es SIMMs (Single Inline Memory Module), die bis vor 1998 noch Standard waren
und DIMMs (Dual Inline Memory Module), Steckmodule für Pentium III-Rechner
mit SDRAM - der heutige Standard für PCs.
8.2 ROM (Festwertspeicher)
(= Read Only Memory); im Gegensatz zum RAM i.A. nicht veränderbar, nicht
flüchtig und viel kleiner, um den PC so flexibel wie möglich zu halten. Das
ROM enthält Programme, die durch das Einschalten des Rechners aktiviert
werden. (z.B. BIOS, siehe 10.3) Durch das ROM weiß der Rechner erst, was er
nach dem Einschalten überhaupt tun soll. (Etwa: Starten von Windows).
Es gibt spezielle ROM-Versionen, die sehr wohl veränderbar sind:
? PROM (Programable ROM) nur einmal mit speziellen Geräten programmierbar
? EPROM (Erasable PROM) mehrmals - allerdings nicht leicht - beschreibbar
? EEPROM (Electrically EPROM) durch Software löschbares ROM - wird etwa in
programmierbaren Joysticks benutzt
? Flash-Memory Speicher im Steckkarten-Format (PC-Format, früher:
PCMCIA-Format) Wird in tragbaren PCs (geringerer Stromverbrauch als
Festplatten, stoßunempfindlich) oder digitalen Kameras (bis 100 MB, dadurch
Platz für genug Fotos) benutzt. Es ist allerdings viel teurer als normales
RAM.
9 Externe Speicher
Der Name kommt daher, dass diese Speichermedien früher alle zu Peripherie
gehörten.
Da das ROM nicht veränderbar und viel zu klein und das RAM flüchtig ist,
benötigt man zusätzliche veränderbare große externe Datenspeicher. Bei
diesen unterscheidet man zwischen magnetischen und optischen Speichern. Ein
solcher externer Speicher besteht im wesentlichen aus drei Komponenten:
? Der Datenträger selbst, der die Daten speichert
- auswechselbar, wie bei Disketten oder CD
- fest eingebaut, wie bei Festplatten
? Das Schreib-/Lese-Gerät, das die Daten vom Datenträger liest bzw. darauf
abspeichert
? Der Controller (s.u.)
9.1 Controller
Steckkarten oder Teile des Motherboard, die den Betrieb von
Diskettenlaufwerken, Festplatten, CD-Laufwerken, etc. steuern - besonders
für Festplatten sehr wichtig, da vom Controller die Zugriffszeit und die
Datentransferrate (Datenübertragungszeit) (siehe 9.2.2) abhängen.
Man unterscheidet heute im wesentlichen folgende Typen von Controllern:
9.1.1 EIDE (Enhanced Integrated Drive Electronics)
E-IDE ist eine den alten IDE-Standard erweiternde abwärtskompatible
Schnittstelle für externe Speicher (Festplatte, CD, DVD,...)
Datentransferraten bis 66 MB/s sind möglich.
Mehr als 80 Prozent aller verkauften PC-Systeme wurden 1999 mit
E-IDE-Festplatten ausgeliefert. Obwohl SCSI-Systeme (s.u.) technologisch
gesehen der E-IDE-Konkurrenz überlegen sind, hat der E-IDE-Standard im Home-
und Office-Bereich immer noch die Nase vorn, denn:
- E-IDE-Festplatten benötigen keine kostspieligen Controller-Karten, da alle
modernen Mainboards mit einer Onboard-Schnittstelle (eingebauter Controller)
ausgestattet sind.
- In den meisten PCs sind nur eine Festplatte und ein CD-ROM-Laufwerk
eingebaut, und dafür reicht das einfache E-IDE-Übertragungsprotokoll in der
Regel vollkommen aus.
Der größte Nachteil von IDE bzw. E-IDE ist die Begrenzung der Anzahl an
Peripheriegeräten auf maximal zwei pro Kanal - beim Aufrüsten des PCs mit
zusätzlichen IDE-Komponenten wird diese Grenze schnell erreicht.
9.1.2 Ultra-DMA
Neueste Form des EIDE-Standards. Dieser Modus ermöglicht es der Festplatte,
über den Controller ohne eine Beteiligung des Prozessors direkt in den
Arbeitsspeicher zu schreiben. Es gibt derzeit zwei Standards - nämlich
Ultra-DMA/33 und Ultra-DMA/66, die maximal eine Datentransferrate von 33
beziehungsweise von 66 MB/s erreichen.
9.1.3 SCSI (Small Computer System Interface)
(Die korrekte Aussprache der Abkürzung ist "Skassy" und nicht "es-ce-es-i
"!!!)
Standard für Schnittstellen und Bussysteme mit hohen Übertragungsraten. Die
Peripheriegeräte, die diesen Standard unterstützen, können an einer einzigen
Erweiterungskarte angeschlossen werden und benötigen auch nur einen Treiber
(den sogenannten "aspi"-Treiber). SCSI-Bussysteme gibt es für verschiedene
Busbreiten und -typen.
Es existieren zahllose verschieden SCSI-Standards, die sich im wesentlichen
durch die Geschwindigkeit unterscheiden - um nur ein paar zu nennen:
SCSI 1, Fast, Fast Wide, Ultra, Fast/Wide SCSI (SCSI 2), Ultra-Wide SCSI
(UW-SCSI, SCSI 3) und Ultra-2-Wide SCSI (U2W-SCSI, LVD), etc.
9.1.4 RAID (Redundant Array of Inexpensive Disks)
Dienen der Sicherheit von Festplatten-Daten. Ein RAID-System ist in der
Lage, Daten redundant zu speichern, also auf mindestens einer weiteren
Festplatte nochmals abzulegen - d.h. vorhandene Daten werden automatisch
gespiegelt (kopiert). RAID-Systeme setzen sich demzufolge immer aus mehreren
Festplatten zusammen.
Da inzwischen Festplatten nicht mehr all zu teuer sind, werden RAID-Systeme
vermehrt auch eingesetzt, um einfach nur große Datenmengen speichern zu
können. Im RAID System ist dazu ein Festplatten-Controller notwendig, der
über integrierte Management-Funktionen verfügt. Dazu kommen ein Netzteil,
das genügend Strom zur Verfügung stellt, sowie eine Software, die es
erlaubt, das RAID-System möglichst flexibel zu verwalten. Für die
Anwendungen und für angeschlossene Rechner stellt sich das Array (die
Batterie einzelner Festplatten) als eine große Festplatte dar; die
Daten-Verwaltung - welche Daten werden wo abgelegt? - wird vom System selbst
übernommen.
Ein Merkmal moderner RAID-Systeme besteht - neben der Sicherheit - zudem
darin, dass defekte Platten im laufenden Betrieb ausgetauscht werden können,
so dass außer den Netzwerkadministratoren üblicherweise niemand etwas von
einem Ausfall merkt.
9.2 Magnetische Speicher
9.2.1 Disketten (Floppy-Disk)
Runde flexible Kunststoffplatte, versehen mit einer dünnen magnetisierbaren
Schicht, wie bei einem Tonband, rundherum befindet sich eine Schutzhülle aus
Plastik. Zum Lesen/Schreiben wird die Scheibe zum Rotieren gebracht und zwei
"Schreib-/Leseköpfe" senken sich von oben bzw. unten auf die Diskette, die
jetzt zugänglich ist, da während des Betriebs die schützende
Metallmanschette beiseite geschoben wird.
Die einzelnen Punkte auf der Diskette werden magnetisch in oder entgegen der
Drehrichtung ausgerichtet (Eins oder Null). Daher ist es auch sehr wichtig,
Disketten vor Magnetfeldern oder extremen Temperaturen zu schützen, um
Datenverluste zu vermeiden.
Früher waren 5 1/4 " Disketten üblich, heute gibt es nur mehr das 3 ½
Format. Auf eine 3 ½ " Diskette passen - im heute üblichen HD-(High
Density) Format - ca. 1,44 MB an Daten. (Das sind also ca. 1.5 Millionen
Zeichen (Bytes) oder etwa 800 Seiten einfacher Text.)
Formatierung:
Vor dem erstmaligen Betrieb muss eine Diskette erst aufgeteilt werden, und
zwar in Spuren (konzentrisch) und Sektoren (radial). (s. Skizze rechts)
Diesen Prozess nennt man Formatierung. Dabei wird die Diskette aufs Lesen
und Schreiben vorbereitet und ein Bereich eingerichtet, wo dann die Lage der
Daten auf der Diskette gespeichert ist. Man nennt diesen Bereich die FAT
(File Allocation Table = Datei-Anordnungs-Tabelle).
Die Anzahl der Spuren und Sektoren ist je nach Betriebssystem verschieden,
daher lassen sich etwa Disketten, die auf einem Apple Computer oder unter
Linux formatiert wurden, nicht ohne weiteres unter Windows lesen.
9.2.2 Festplatten (Harddisk, HD)
Besitzen wesentlich größere Speicherkapazität als Disketten (bei PCs zumeist
um die 20 GB - das entspricht etwa einer Bibliothek mit 10,000 Büchern!).
Der Datenträger ist fest eingebaut und besteht aus mehreren übereinander
gelagerten Scheiben aus beschichtetem Aluminium. Die Aufteilung erfolgt
wieder in Spuren und Sektoren sowie - für die vertikale Komponente - in
Zylinder. (vgl. Skizze)
Zusätzlich zur Formatierung besteht noch die Möglichkeit, Bereiche für
verschiedene Betriebssysteme (etwa Windows 98 und UNIX) auf einer Festplatte
einzurichten. Dieser Vorgang, der vor der Formatierung erfolgen muss nennt
sich Partitionierung. (Man kann natürlich auch mehrere Partitionen für
dasselbe Betriebssystem einrichten, etwa aus Gründen der Übersichtlichkeit).
Der Zugriff erfolgt wieder durch zwei Schreib-/Leseköpfe pro Scheibe. (s.
Skizze)
Eine Festplatte dreht sich mehrere 1000 mal pro Sekunde, daher setzen die
Köpfe nicht mehr direkt auf, sondern schweben auf einem Luftkissen. (Ein
einziges Staubkorn dazwischen zerstört daher sofort die Festplatte, man
nennt dies einen "Headcrash". Stößt man während des Betriebs kräftig gegen
das Computer-Gehäuse kann dies denselben Effekt haben.)
Leistungskriterien sind die Zugriffszeit (mittlere Zeit zum Auffinden von
Daten auf der HD, heute schon unter 5 ms) und die Transferrate (Anzahl der
Daten, die pro Sekunde gelesen werden können, heute über 10,000 KB/s).
9.2.3 Wechselfestplatten
Im Gegensatz zu normalen Festplatten ist der gesamte Innenteil der
Festplatte austauschbar. Man kann dann die Daten zu einem anderen PC
transportieren, der allerdings über den gleichen Wechselrahmen verfügen
muss.
Wechselplatten haben eine viel geringere Kapazität (zumeist unter 1 GB).
9.2.4 ZIP-Drive und Jaz-Drive
Die Firma Iomega bietet mit diesen Medien die Möglichkeit, Datenträger (3 ½
") mit einer Kapazität von 100 MB und 250 MB (ZIP) bzw. 1 GB und 2 GB (Jaz)
zu verwenden. Herkömmliche Disketten passen allerdings nicht in diese
Laufwerke.
Vorteil: Leicht transportierbar und anzuschließen, ideal zum Sichern und
Transportieren kleiner Datenmengen, vergleichsweise weit verbreitet.
Nachteil: Sowohl Laufwerk als auch Datenträger eher teuer; nicht kompatibel
zu gewöhnlichen Disketten; im Vergleich zu Festplatten sehr langsam.
Diese Laufwerke werden entweder fest eingebaut oder an die parallele oder am
besten an die USB-Schnittstelle (s. Kapitel 13) des PC angeschlossen
9.2.5 Analoge Magnetbänder (Streamer)
Vergleichbar mit Videokassetten.
Vorteile: preiswert, große Kapazität (mehrere GB), ideal zur Sicherung von
Festplatten
Nachteile: sequentieller Zugriff, sehr langsam
9.2.6 DAT-Laufwerke (Digital Audio Tape)
Digitales Tonband, ursprünglich für Audio-Bereich entwickelt; ziemlich
teuer, Daten werden im Unterschied zu analogen Streamern (Bandlaufwerken)
digital abgespeichert.
9.3 Optische Speicher
9.3.1 CD-ROM (Compact Disc - Read Only Memory)
Verbreitetstes Medium für Software. CD-ROMs bestehen aus einer runden
Plastikscheibe mit einer Aluminiumschicht, geschützt durch eine
Lackschicht. Ein Laser brennt bei der Herstellung Vertiefungen ins Aluminium
und schreibt so die Daten.
Beim Lesen wird die CD wieder von einem Laser abgetastet.
Moderne CD-ROM-Laufwerke können auch Kodak Photo-CDs und gewöhnliche
Audio-CDs lesen. Ein eigenes Abspielgerät für diese zwei Datenträger ist
also nicht erforderlich, sofern man einen PC besitzt.
Eine CD-ROM hat eine Kapazität von 650-700 MB. (Entspricht fast 500 (!) 3 ½
" Disketten.), die Datentransferrate und Zugriffszeit liegt allerdings immer
noch deutlich unter der von Festplatten.
Die ersten CD-ROM Laufwerke hatten eine Transferrate von 150 KB/s.
Laufwerke, die doppelt so schnell sind, bezeichnet man als 2-fach (oder
Doublespeed-) Laufwerke, Laufwerke mit 1.200 KB/s als achtfach Laufwerke,
etc. Selbst bei einem 50-fach Laufwerk ergibt sich nur eine Transferrate von
50 x 150 (=7.500) KB/s, wobei dies nur der theoretische Maximalwert ist. -
Die durch-schnittliche Transferrate liegt deutlich darunter, etwa bei 5.000
KB/s)
9.3.2 DVD (Digital Versatile Disc oder Digital Video Disc)
(genau: DVD-ROM); vergleichbar mit der CD-ROM, nur mit viel größerem
Speicherplatz (bis 17 GB, vgl. Tabelle, das entspricht etwa 26 CD-ROMs!)
Diese Menge wird durch eine dichtere Anordnung der Daten und beidseitiges
Beschreiben, teils in zwei Schichten erreicht. DVDs sehen aus wie
gewöhnliche CDs und bieten genügend Platz zum Abspeichern eines kompletten
Spielfilms ohne Qualitätsverlust (diese Filme sind im sogenannten MPEG-2
Verfahren komprimiert), daher werden Videokassetten langsam von DVDs
abgelöst. (Der Vorteil ist nicht nur die längere Haltbarkeit, s.u.)
Besitzt man ein DVD-Laufwerk und eine Grafikkarte mit TV-Ausgang (s.12.7.1),
so kann man sich Spielfilme am Fernseher ansehen, ohne einen teureren
DVD-Player kaufen zu müssen.
Des weiteren eignet sich die DVD für moderne Computerspiele mit vielen
Multimediadaten (Filme, Musik) und für digitale Lexika.
DVD-Laufwerke sind kompatibel zu CD-ROM, Audio-CD und Photo-CD, etc.
Weitere Eigenschaften der DVD-Technologie sind:
1. Sofern Ausgangsmaterial und Abspielgerät es erlauben, kann der Zuschauer
die Kameraperspektive mittels Fernbedienung (Multi-Angle-Funktion) selber
wählen. Bis zu 9 parallele Videospuren - verschiedene "Blickwinkel" ("Angle
") - dies ist allerdings nicht bei normalen Spielfilmen möglich.
2. Bis zu 8 digitale Tonspuren mit jeweils 8 Kanälen und maximal 8
verschiedenen Sprachen.
3. Die drei primären Audio-Formate der DVD-Video sind PCM, Dolby Digital
(s.u.) und MPEG-2. Auf bis zu 8 unabhängigen Tonspuren können diese
Audio-Formate und/oder unterschiedlichen Synchronisations-Fassungen
(Sprachen) des Films abgelegt werden.
4. Wiedergabe von Zeitlupe, wackelfreiem Standbild, Einzelbildvorlauf,
Suchlauf etc.
5. Maximal 32 verschiedene Untertitel-Versionen.
Das Tonformat Dolby Digital (auch AC-3, oder 5.1) ist wahrscheinlich der
größte Anreiz beim Kauf eines Spielfilms auf DVD - An einen digitalen
Verstärker werden fünf Lautsprecher - drei vor dem Zuseher und zwei hinter
dem Zuseher, sowie ein Subwoofer angeschlossen. Spielfilme werden (im
Gegensatz zu Dolby Surround) auch hinten mit Stereo-Ton ausgestrahlt - das
Klangerlebnis ist damit besser als in den meisten Kinos.
Eine kurze Übersicht der gängigen DVD-Formate im Vergleich mit der CD:
SYSTEM SPEICHERKAPAZITÄT SPIELDAUER (AUDIO) SPIELDAUER (VIDEO) CD-ÄQUIV.
Compact Disc 682 Megabyte 78 Minuten 70 Minuten (Video-CD) 1
DVD *simple-sided/
simple-layer (DVD-5) 4,7 Gigabytes 570 Minuten
(9 h 30 min) 133 Minuten 7
DVD *simple-sided/
double-layer (DVD-9) 8,5 Gigabytes 1 050 Minuten
(17 h 30 min) 241 Minuten 13
DVD *double-sided/
simple-layer (DVD-10) 9,4 Gigabytes 1 140 Minuten (19 h) 266 Minuten 14
DVD *double-sided/
double-layer (DVD-18) 17 Gigabytes 2 100 Minuten (35 h) 482 Minuten 26
9.3.3 CD-R (Compact Disc Recordable)
Einmal beschreibbare CD. Eine unbeschriebene CD-R nennt man "Rohling". Das
Beschreiben kann in mehreren Etappen erfolgen ("Multisession"), es können
allerdings nur noch-unbeschriebene Bereiche beschrieben werden. Ist die CD-R
einmal voll, ist kein weiteres Schreiben mehr möglich.
Schreiben geschieht durch einen Laser, der eine Aufzeichnungsschicht erhitzt
(daher der umgangssprachliche Ausdruck "CDs brennen").
Nachteile: Schreibvorgang sehr langsam, CD-Rs sehr empfindlich, bei
Schreibfehlern ist Rohling nicht mehr zu verwenden.
9.3.4 CD-RW (Compact Disc ReWritable)
Eine CD-RW kann etwa tausend mal beschrieben werden. Löschen und Ändern des
Inhaltes ist ebenfalls möglich. Durch Packet Writing (s.u.) kann sich eine
CD-RW sogar wie eine Festplatte verhalten. Derzeit übliche CD-RW-Laufwerke
können CD-R Medien mit bis zu achtfacher und CD-RW-Medien mit vierfacher
Geschwindigkeit beschreiben.
Packet Writing ist ein Verfahren, welches bei CD-RW Laufwerken zur Anwendung
kommen kann. Durch Packet Writing lässt sich mit einer CD-RW wie mit einer
Festplatte arbeiten - d.h. per Drag&Drop können Dateien im Explorer auf das
CD-RW-Laufwerk "gezogen" und damit kopiert werden, ohne dass die übliche
Spezial-Software zum Beschreiben einer CD-R bzw. CD-RW verwendet werden
müsste.
Dateien können auch wieder gelöscht werden, jedoch werden diese nicht sofort
physikalisch auf der CD-RW gelöscht, sondern nur ausgeblendet. Der gelöschte
Speicherplatz wird erst wieder zur Verfügung gestellt, wenn die CD-RW
komplett gelöscht wird.
9.3.5 DVD-RAM
Beschreibbare DVD mit allerdings etwas geringerer Kapazität; derzeit noch
teuer und wenig verbreitet. Die DVD-RAM ist wahrscheinlich das Medium der
Zukunft.
September 1999 wurde das erste Laufwerk (Philips) vorgestellt, das sowohl
CD-RWs als auch DVDs sowohl lesen als auch beschreiben kann.
9.4 Magneto-Optische Speicher
Hierbei handelt es sich um Speicher mit Eigenschaften beider zuvor erwähnten
Typen, also Mischformen.
9.4.1 MO oder MOD (Magneto-Optical Disc)
Wiederbeschreibbar, Oberfläche besteht aus einem magnetisierbarem Material,
das zur Magnetisierung allerdings erst stark erhitzt werden muss (dies
geschieht durch einen Laser).
MO-Laufwerke gibt es für 3,5 und 5,25 Zoll Scheiben.
Extrem sicher gegenüber Datenverlust, Kapazität bis 5 GB aber sehr teuer und
eher langsam.
9.4.2 LS-120 Disketten
Sehen ähnlich aus wie 3,5 Zoll Disketten, fassen aber 120 MB an Daten;
Datenspeicherung erfolgt wie bei einer Diskette, da aber die Daten viel
dichter abgelegt sind, benötigt man einen Laser zum Abtasten der Diskette
und Positionieren der Köpfe.
Vorteile: schneller als herkömmliche Disketten, Laufwerk kompatibel zu 3,5
Disketten (!)
Nachteile: teuer und kaum verbreitet
9.5 Zusammenfassung
Magnetische Speicher Optische Speicher Magn./Opt. Speicher
Zugriffsart Wie oft beschreibbar?
Direkt Sequentiell nicht 1 mal Beliebig oft
Diskette Magnetband CD-ROM CD-R CD-RW MOD
Festplatte DAT DVD-ROM DVD-RAM LS-120 Disketten
Wechselplatte
ZIP/Jaz-Drive
10 Betriebssysteme
Beispiele: DOS, Windows, Mac-OS
Betriebssysteme sind Verbindung zwischen Mensch und Computer, zwischen Hard-
und Software. Betriebssysteme sind selbst Software, also Programme (die
wiederum den Ablauf anderer Programme steuern).
10.1 Aufgaben des Betriebssystems
Das Betriebssystem ...
- überprüft die vorhandene Hardware nach dem Einschalten, meldet eventuell
Fehler
- steuert/überprüft Ein-/Ausgabe zu Bildschirm, Drucker, Tastatur,
Speichern, etc.
- organisiert Verwaltung der Daten auf den Datenträgern
- steuert Programmabläufe
- überwacht und steuert Zusammenspiel der einzelnen Systemkomponenten
Es versetzt den PC und den Benutzer also in die Lage, mit
Anwendungsprogrammen zu arbeiten
10.2 Klassifikation von Betriebssystemen
Es gibt viele verschiedene Betriebssysteme. Die Wahl des richtigen Produkts
hängt von den Einsatzgebieten des verwendeten PCs ab. Entscheidend sind...
? ...die Anzahl der Anwender, die das Betriebssystem (den PC) gleichzeitig
nutzen. Hier unterscheidet man zwischen Single-User- (ein Benutzer) und
Multi-User-(Mehr-Benutzer)- Betriebssystemen. MS-DOS z.B. ist ein
Single-User-System.
Für ein Multi-User-System ist ein Netzwerk (siehe Kapitel 4.3 und Kapitel
14) erforderlich, da jeder Benutzer einen eigenen PC benötigt.
? ...die Anzahl der "gleichzeitig" ablauffähigen Anwenderprogramme. Kann man
immer nur ein Programm in den Speicher laden, spricht man von einem
Single-Tasking-System - kann das Betriebssystem mehrere Programme
gleichzeitig bearbeiten (wie z.B. Windows 98), spricht man von einem
Multitasking-System.
Man unterscheidet folgende Varianten von Multitasking:
Kooperatives Multitasking (Programme können, wenn sie das System nicht
blockieren, abwechselnd arbeiten; z.B. Windows 3.x)
Preemptives Multitasking (Betriebssystem teilt den Programmen CPU-Zeiten
automatisch zu; z.B. Windows 9x)
Pervasives Multitasking (noch bessere Zeiteinteilung, z.B. BE OS 4.5)
? ...die Leistungsfähigkeit des PC. Mit Hardware, die 32 Bit gleichzeitig
bearbeiten kann (z.B. Pentium), empfiehlt sich natürlich ein 32-Bit
Betriebssystem wie etwa Windows 98.
? ... die Datensicherheit: Legt man wert auf ein System, das möglichst
selten abstürzt und Unbefugte fernhält, empfiehlt sich etwa Linux oder
Windows 2000.
? ... Benutzerführung und Arbeitsweise: Man unterscheidet zwischen
kommandoorientierten Be-triebssystemen (Befehlseingabe über Tastatur; z.B.
MS-DOS; Detailwissen über Computer erforderlich) - und grafikorientierten
Systemen (Maus, Fenster, Icons; z.B. Windows; einfach zu bedienen, aber viel
unberechenbarer...)
10.3 Der Startvorgang bei einem PC
Nach dem Einschalten passiert folgendes:
1. Der Rechner sucht in einem ROM (BIOS, Basic Input Output System) nach dem
"Bootstrap-Loader", einem Programm, das dem Rechner sagt, was er als
nächstes tun soll.
2. Der PC sucht auf der Festplatte oder einer Diskette nach den Dateien
"io.sys" und "msdos.sys"
3. Der Rechner sucht, je nach Inhalt der beiden erwähnten Dateien, ein
entsprechendes Betriebssystem (z.B. Windows 98).
4. (falls es sich um DOS oder Windows handelt): Der Rechner startet die
Dateien config.sys und autoexec.bat (falls vorhanden), die selber kleine
Programme ausführen (z.B. die Tastatur konfigurieren).
5. Das Betriebssystem wird endgültig geladen.
10.4 Überblick über die wichtigsten Betriebssysteme
Es gibt zahllose Betriebssysteme auf dem Markt, wobei Microsoft mit über 95%
praktisch ein Monopol hat. (Zumindest bei den Desktop-Betriebssystemen).
10.4.1 MS-DOS
(Microsoft Disk Operating System); erstes Betriebssystem für IBM-PCs (1981);
kommandoorientiert durch Tastaturbefehle wie "copy", "help", "delete". DOS
kann ohne Zusatzprogramme nur 640 KB RAM nutzen. Selbst unter Windows 98
sind die meisten uralten DOS-Programme noch lauffähig.
10.4.2 MS-Windows 3.x
(3.x steht für die Versionen 3.0, 3.1 und 3.11)
Kein echtes Betriebssystem, sondern nur eine grafische "Oberfläche
(graphical user interface, GUI) für DOS.
Voraussetzung: 80286 mit 1 MB, ideal: i386 mit 4MB Speicher
Neuheiten:
? Volle Mausunterstützung, Verwendung von Icons, Fenstern
? Programme müssen nicht mehr einzeln auf Hardware angepasst werden wie bei
DOS
? bis zu 16 MB Speicher nutzbar
? WYSIWYG-Technik (what-you-see-is-what-you-get, d.h. bildschirmgetreue
Ausdrucke)
? DDE (Dynamic Data Exchange, dynamischer Datenaustausch) - Daten werden
nicht einfach zur Gänze von einem Programm ins andere kopiert, man gibt nur
einen Verweis dorthin an.
? OLE (Object Linking and Embedding, Objekte verknüpfen und einbinden) -
z.B. eine Excel-Tabelle kann in Word eingefügt werden, und dort - ohne Excel
direkt zu starten - (etwa mit einem Doppelklick) bearbeitet werden.
? Kooperatives Multitasking
Seit Version 3.11 ("Windows für Workgroups"):
? Netzwerkfunktionen
10.4.3 MS-Windows 95
Unabhängig von DOS (dieses wird aber noch mitgeliefert als Version 7.0);
32-Bit Unterstützung.
Voraussetzung: i386SX mit 4MB, sinnvoll: Pentium 90 mit 16 MB RAM oder höher
Fast alle DOS-Programme weiter verwendbar; sinnvoll ist aber nur der Einsatz
von 32-Bit-Programmen (andere können Win95 bremsen oder sogar beschädigen
und lassen sich nur schwer wieder löschen - zumeist bleibt "Schrott" auf
der Festplatte zurück)
Eine der wichtigsten Neuheiten ist:
Plug and Play (PnP):
Bis etwa 1995 war es notwendig, alle PC-Komponenten von Hand zu
konfigurieren (d.h. dem Rechner mitteilen, welche Hardware eingebaut ist) -
dazu waren häufig fundierte PC-Kenntnisse erforderlich (und das Wissen,
welche Hardware man überhaupt besitzt!)
PnP ermöglicht nun die automatische Erkennung neu eingebauter Hardware (im
Idealfall jedenfalls ... deshalb hört man gelegentlich auch den Ausdruck
Plug-and-Pray...)
Für PnP sind aber drei Voraussetzungen erforderlich:
1. Das Gerät (z.B. die Soundkarte) muss PnP-fähig sein
2. Der PC selbst muss PnP-fähige Komponenten erkennen können (fast alle seit
1994 produzierten PCs können dies).
3. Das Betriebssystem muss PnP-fähig sein. (z.B. Windows 9x).
Weitere Neuheiten:
? Dateinamen bis 255 Zeichen lang, können Leerzeichen enthalten
? Neue, benutzerfreundliche Gestaltung der Oberfläche ("Desktop")
? Weniger fehleranfällig
? Papierkorb
? Drag&Drop (Ziehen und Fallenlassen von Icons mit der Maus)
? (für 32-Bit Programme:) Preemptives Multitasking
? Multithreading (z.B. mehrere Word-Dokumente gleichzeitig bearbeitbar)
? Verbesserte Netzwerkfunktionen
? Zahlreiches Zubehör (Textverarbeitung, Kalender, Malprogramm, Spiele,...)
Seit der Version OSR2 (die man nur in Kombination mit einem neuen Computer
erwerben kann):
? Neues verbessertes Dateiformat für die Festplatte ("FAT32")
? Unterstützung von MMX (s. 6.3.2) und USB (siehe 13.4)
10.4.4 Windows 98
Erhältlich seit Juni 1998; derzeit meistverkauftes Betriebssystem der Welt.
Voraussetzung: i386SX mit 4MB, sinnvoll: Pentium II/233 mit 64 MB RAM oder
höher
Kaum Änderungen gegenüber Windows 95:
? Der Internetbrowser MS Internet-Explorer 4.0 ist fixer Teil von Windows
? Verschmelzen des normalen Explorers mit dem Internet-Explorer
? Auf Wunsch neue Oberfläche "Active Desktop" (viele neue Funktionen, etwa
Einbinden von URLs in den Hintergrund) - Nachteil: Computer wird dadurch
etwas langsamer.
? Sehr umfangreiche Hardwareerkennung
? Verbesserte Netzwerkfähigkeiten
? Verbesserte Unterstützung für Multimedia durch eingebautes "Direct X 6.0"
? FAT 32 ermöglicht Festplatten-Partitionen größer als 2 GB und kleinere
"Cluster" (Zuordnungs-einheiten), d.h. kleine Dateien brauchen nicht mehr so
viel Platz.
? Zwei Grafikkarten können eingebaut werden, dadurch Anschluss von zwei
Monitoren möglich.
? Noch absturzsicherer (dafür ein paar neue Fehler)
? Unterstützung von neuer Hardware wie DVD oder USB (siehe 13.4)
Seit Juli 1999 ist Windows 98 SE (Second Edition) erhältlich. Dieses Update
bietet einige zusätzliche Funktionen, die allerdings auch einzeln aus dem
Internet zu beziehen sind.
Schwächen von Windows 98:
- Keine Multiprozessorunterstützung
- Nur mit INTEL (und kompatiblen) CPUs verwendbar
- Teile des Betriebssystems immer noch in 16-Bit
- Dateisystem FAT32 ist zwar neu, aber immer noch unprofessionell (z.B.
keine Sicherheitsmaßnahmen)
10.4.5 Windows ME (Millennium Edition)
Nachfolger von Windows 98 - soll Anfang 2001 auf den Markt kommen. Letztes
MS Betriebssystem, das auf DOS basiert.
10.4.6 MS Windows NT 4.0 (New Technology)
(NT = New Technology); kein Nachfolger von Windows 3.x oder Windows 95
sondern eine eigene Windows-Variante für professionelle Anwendungen.
Windows NT 4.0 gibt es in zwei Versionen:
- Windows NT Workstation (für Einzelbenutzer).
- Windows NT Server für Netzwerkserver inklusive kompletter
Netzwerksoftware.
Vorteile gegenüber Windows 9x:
? echtes 32-Bit Betriebssystem (16-Bit Programme i.A. nicht lauffähig.)
? hardwareunabhängig (verlangt keinen INTEL-Prozessor)
? Viel stabiler und absturzsicherer
? bessere Netzwerkfähigkeiten
? sicherer bezüglich Datenschutz (Passwörter, Zugriffsrechte,...)
? Multiprozessorunterstützung
? Gutes Filesystem "NTFS"
Nachteile:
- kein Plug and Play
- kein Powermanagement
- kaum Multimediafeatures
- keine Unterstützung moderner Hardware (USB, Firewire, DVD,...)
- inkompatibel zu manchen Windows-Anwendungen (ältere Programme, Spiele,...)
- andere Nutzung der Festplatte (NTFS) ist zwar effektiv, aber inkompatibel
zu Win98
- verlangt gute Hardware (mindestens 128 MB RAM und einen Pentium II)
- Nicht für Einsteiger geeignet, kompliziert und umständlich zu handhaben
- Sehr teuer
10.4.7 MS Windows 2000
"Windows 2000" ist der neue Name für die Version 5.0 von "Windows NT". Auf
den Markt kam Windows 2000 erst Mitte Februar 2000 - und zwar in vier
unterschiedlichen Versionen:
- Windows 2000 Professional für Arbeitsplatzrechner
- Windows 2000 Server für Workgroups
- Windows 2000 Advanced Server für größere Abteilungen oder ganze Firmen,
und
- Windows 2000 Data Center Server, die mächtigste Version, die
Multiprozessor-Rechner mit bis zu 16 Prozessoren unterstützt.
Windows 2000 vereint die Vorteile von Windows 9x (Komfort, Multimedia) und
Windows NT 4.0 (Sicherheit, Netzwerkfunktionen) und bietet einiges Neues wie
Echtzeitverschlüsselung der Festplatte, verbesserte Netzwerkfeatures,
u.v.a.m.)
10.4.8 MS Windows CE
Spezielles 32-Bit System, verwendbar für viele mobile Computer (Handhelds
bis Subnotebooks - siehe 3.2.2); Oberfläche vergleichbar mit Windows 9x,
aber nicht 100%-kompatibel; gesamtes Betriebssystem und Software (einfache
Office-Version) in einem ROM (8-16 MB) gespeichert.
10.4.9 BE OS 5.0
Extrem leistungsfähiges 64-Bit Betriebssystem (d.h. 64-Bit Rechner, z.B.
Pentium erforderlich)
Vorteile:
? Nicht abwärtskompatibel (im Gegensatz zu Windows 9x), daher extrem schnell
? Pervasives Multitasking
? Multiprozessorfähig
? Leistungsfähiges Filesystem (bis 18 Mio. TeraByte!)
? Hohe Datensicherheit
? Gratis erhältlich (ab März 2000)
Nachteile:
- (noch?) Geringes Softwareangebot
- Keine Multiuser-Funktionen
10.4.10 UNIX
UNIX wurde 1969 von DELL entwickelt und ist ein Betriebssystem für
Großrechner.
Vorteile: sehr sicher; ideal für Netzwerke; hardwareunabhängig
Nachteile: nur für Profis, da anwenderunfreundlich, zahllose inkompatible
UNIX-Versionen existieren, schwer zu warten, wenig Software verfügbar, kaum
Multimediafunktionen.
Solaris 7/x86 ist die bekannteste UNIX Version für den PC.
10.4.11 Linux
1991 von Linus Torvald entwickeltes UNIX-ähnliches Betriebssystem.
- Kostenlos erhältlich
- Bietet alle Vorteile von UNIX.
- Echtes 32-Bit System
- Sehr sicher gegenüber Abstürzen und Viren
- Sehr kompliziert zu installieren.
Wird besonders an Universitäten und von Informatik-"Gurus" Windows
vorgezogen. Linux wird laufend von vielen Benutzern weltweit verbessert, da
der Programmcode frei verfügbar ist!
Auch für Linux existieren grafische - teils an Windows 9x angelehnte -
Benutzeroberflächen.
10.4.12 MacOS 10
Neuestes Betriebssystem für Apple Computer. Voraussetzung: Motorola
Prozessor oder PowerPC und 64 MB RAM. Am ehesten vergleichbar mit Windows
9x.
Vorteile: sehr bequem zu bedienen, echtes Plug and Play, ausreichend
Software (auch MS-Programme!) erhältlich
Nachteil: läuft nur auf Apple Computern
10.4.13 OS/2 Warp 4
Produkt von IBM; vergleichbar mit Windows NT, sehr leistungsfähig,
allerdings mittlerweile fast ganz vom Markt verschwunden.
10.4.14 New Deal 3.0
Für ältere Computer (z.B. 386er) gedachte grafische Oberfläche für DOS.
(Nachbildung des Windows9x Desktops). Sehr zuverlässig und einfach zu
bedienen, viele Anwendungen bereits mitgeliefert. Nachfolger von "Geo Works
".
11 Bussysteme
Gesamtheit aller Leiterbahnen auf der Hauptplatine, über die alle wichtigen
Bestandteile des PC miteinander verbunden sind.
Nicht nur das Tempo des Prozessors ist wichtig, sondern auch die
Geschwindigkeit, mit der Daten transportiert werden, mit anderen Worten die
Leistungsfähigkeit des Bussystems.
Es gibt viele verschiedene Bussysteme, die wichtigsten sind:
11.1 Der ISA-Bus (Industry Standard Architecture)
Sehr altes Bussystem, aber billig, robust und technisch ausgereift. Wird
teilweise noch heute ver-wendet, z.B. für Netzwerkkarten oder ältere
Soundkarten.
11.2 Der VESA-Local-Bus
Erste Nachfolger des ISA-Bus waren der MCA- und der EISA-Bus, die aber nicht
zu ISA kompatibel waren. Der VESA-Local-Bus hingegen konnte ISA-Steckkarten
aufnehmen und war das erste System, bei dem die Bus-Taktrate von der
Prozessorgeschwindigkeit abhängig war. (Man nennt dieses Prinzip "Local Bus
- diese Eigenschaft gilt auch für alle folgenden Bussysteme).
11.3 Der PCI-Bus (Peripheral Component Interconnector)
Derzeitiger Standard für PCs. Der PCI-Bus arbeitet unabhängig vom Prozessor
und entlastet ihn damit.
Weitere Vorteile: Leichte Installation von Steckkarten möglich ("Plug and
Play", siehe 10.4.3), nicht an bestimmte Prozessoren gebunden (d.h. auch
z.B. bei Apple-Computern einsatzfähig).
Er ist allerdings inkompatibel zu ISA. Daher findet man auch heute noch
ISA-Steckplätze in allen neuen PCs.
11.4 Der AGP-Bus (Accelerated Graphics Port)
Neuer Steckplatz, aber nur für Grafikkarten.
Der AGP-Bus arbeitet unabhängig vom PCI-Bus.
Idee: Grafisch anspruchsvolle Software (speziell Computerspiele mit
3D-Grafiken) benötigen viel Speicher, ältere Grafikkarten haben aber nur bis
etwa 2 MB. Der AGP-Bus ermöglicht es, das RAM des Computers zusätzlich zu
nutzen.
Diese Möglichkeit wird allerdings gar nicht genutzt, da der Speicher
moderner Grafikkarten mit 32 MB und mehr ohnehin schon groß genug ist.
Der AGP-Bus wird mit 66 Megahertz getaktet - gegenüber dem mit 33 Megahertz
getakteten PCI bedeutet dies eine Erhöhung der maximalen Übertragungsrate
auf 266 Megabyte pro Sekunde (MB/s). Im Pipelining-Verfahren des
AGP-2x-Modus bis 595 MB/s, bei AGP-4x bis etwa 800 MB/s. Weitere Vorteile:
Zusätzliche Signalleitungen, um das Pipelining zu steuern. Während beim
PCI-Bus eine Anforderung von Daten erst dann erfolgen kann, wenn der
vorangegangene Datentransfer abgeschlossen ist, können beim AGP Daten
bereits angefordert werden, während die zuvor verlangten Daten noch im
Speicher gesucht werden.
Am AGP-Bus hängt ausschließlich die Grafikkarte. Auf andere Geräte
(SCSI-Adapter, ISDN-Karte,...) muss man keine Rücksicht nehmen.
Texturen können direkt aus dem Arbeitsspeicher (RAM) ausgeführt werden.
Auf der AGP-Grafikkarte reichen 8 Megabyte RAM auch für anspruchsvolle
Aufgaben aus.
Hauptprozessor (CPU) und Grafikchip können quasi gleichzeitig auf das RAM
zugreifen.
Auf die Grafikdaten im RAM kann die CPU schneller zugreifen als auf den
lokalen Grafikspeicher auf der Karte.
12 Ein- und Ausgabegeräte
12.1 Monitor
Wahrscheinlich wichtigster Teil der Peripherie. Um seine Augen zu schonen
(besonders für längere Arbeit am PC wichtig) und sinnvoll arbeiten zu
können, sollte man auf einen guten Monitor besonders Wert legen. Einen guten
Ruf haben u.a. Geräte von Eizo, Iiyama, NEC und ViewSonic.
Jeder moderne Monitor ist in der Lage, sich nach längerer Pause selbst
abzuschalten. Weitere Kriterien beim Kauf von Monitoren sind:
12.1.1 Größe
Gemessen wird die Monitorgröße (wie bei Fernsehern) als Bildschirmdiagonale,
aber in Zoll. Sinnvoll sind mindestens 17" für Textverarbeitung und 21"-22
für CAD (Computer Aided Design). Aktuelle Preise für sehr gute Monitore:
ca. öS 5000,- (17"), öS 6.000,- (19") und öS 12.000,- (21")
12.1.2 Monitortypen
? Kathodenstrahlmonitor (CRT-Monitor): "Herkömmliche" Bildschirme: arbeiten
ähnlich wie Fernseher; d.h. ein Elektronenstrahl, der auf die Innenseite der
Monitorscheibe ausgesandt wird, regt eine Phosphorschicht zum Leuchten an.
Vorteile: erhältlich in allen Größen und Preislagen, voller Blickwinkel
(180?)
Nachteile: große Abmessungen, Bildqualität nicht bei allen Produkten optimal
Besonders gut sind Planare Monitore: Diese arbeiten mit einer völlig flachen
Oberfläche und bieten so ein verzerrungsfreies Bild zu einem kaum höheren
Preis als gewöhnliche CRT-Monitore.
? TFT-Monitor: (Thin Film Transistor); Für jeden einzelnen Bildpunkt wird
ein Transistor und ein Kondensator verwendet. Flache Bauweise - sehr
platzsparend.
Besonderheit: bei CRT-Monitoren wird der Rand des Schirms vom Gehäuse
verdeckt, ein 17" CRT-Monitor bietet also nur etwa 15,9" tatsächlich
sichtbaren Bereich. Bei einem TFT-Monitor ist die gesamte Diagonale auch
sichtbar. Ein 15,1" TFT-Monitor ist also etwa mit einem 17" CRT-Monitor zu
vergleichen!
Vorteile: platzsparend, extrem gute Bildqualität, niedriger Stromverbrauch,
strahlungs-arm, flimmerfrei.
Nachteil: (immer noch) sehr teuer (15" ca. öS 17.000,- 17" Monitore fast
unbezahlbar), eingeschränktes Blickfeld (110? bis 160?), teils Probleme beim
Wechseln der Bildschirm-Auflösung
12.1.3 Die Bildwiederholfrequenz
Damit das menschliche Auge kein Flimmern wahrnimmt, müssen mindestens 70-80
Bilder pro Sekunde (d.h. 70-80 Hz) dargestellt werden können.
Die sogenannte Zeilenfrequenz (oder Horizontalfrequenz) eines Monitors
(ersichtlich aus dem Handbuch) gibt an, bei welcher Auflösung wie viele
Bilder möglich sind. Dies lässt sich durch fol-gende Formel errechnen:
Anzahl Bilder pro Sekunde = (Zeilenfrequenz in Hz) / (Zeilenanzahl der
gewünschten Auflösung)
Beispiel: Maximale Zeilenfrequenz des Monitors = 56 kHz, gewünschte
Bildschirmauflösung = 1024x768 Punkte
dies ergibt 56000 / 768 = 72,9 Hz, also ein flimmerfreies Bild.
Damit das Bild auch bei höheren Auflösungen nicht flimmert, sollte der
Monitor eine Zeilenfrequenz von zumindest 80 kHz haben. Dies ermöglicht bei
einer Auflösung von 1024x768 Punkten 100 Bilder in der Sekunde, also 100 Hz,
und bei einer Auflösung von 1280x1024 Punkten immer noch 75 Hz.
Bemerkung: Es reicht freilich nicht aus, dass der Monitor eine gewisse Zahl
von Bildern pro Sekunde darstellen kann; auch die Grafikkarte muss dazu in
der Lage sein. Moderne Grafikkarten sind allerdings zu viel höheren
Frequenzen fähig als selbst die besten Monitore überhaupt darstellen können.
12.1.4 Auflösung
Ein Monitor kann nicht beliebig hohe Auflösungen darstellen. Ausschlaggebend
dafür ist (bei einem CRT-Monitor) das Auflösungsvermögen des
Elektronenstrahls. Die kleinsten heute darstellbaren Punkte haben einen
Durchmesser von etwa 0,2 mm. (Man nennt diesen Wert auch Lochmaske oder
Konvergenz.) Je höher die Auflösung des Strahls, desto kleinere Punkte sind
möglich und desto höher kann die maximale Bildschirmauflösung gewählt werden
.
Die Grenze liegt zumeist bei 1024x768 Punkten bei 15" Monitoren, 1280x1024
Punkten bei 17" Monitoren und 1600x1200 bei 21".
12.1.5 Bildqualität
Beim Kauf sollte man darauf achten, dass das Bild scharf ist, die Farben
klar, keine Verzerrungen an den Rändern auftreten und genügend Möglichkeiten
(Knöpfe, Schalter) vorhanden sind, das Bild optimal einzustellen.
Letzteres geschieht zumeist über ein "On-Screen"-Menü (OSD), das durch an
der Frontseite angebrachte Tasten aktiviert wird. Hierbei werden die Daten
direkt am Bildschirm eingeblendet.
12.2 Drucker
So gut wie alle heute eingesetzten Drucker sind "Punktmatrixdrucker", d.h.
die zu druckende Seite wird aus lauter einzelnen Punkten aufgebaut.
Für die Druckqualität entscheidend ist daher die Anzahl der Punkte pro
Flächeneinheit. Diese wird angegeben in dpi (dots per inch, Punkte pro
Inch).
Die wichtigsten Druckertypen sind:
12.2.1 Nadeldrucker
Heute kaum noch in Verwendung; 9-48 Nadeln bauen die einzelnen Zeichen, bzw.
die Grafiken auf. Mehr Nadeln ergeben daher ein besseres Druckbild.
(einziger) Vorteil: Durchschläge sind möglich
Nachteile: schlechte Druckqualität, sehr laut, sehr langsam, heute kaum
noch erhältlich
12.2.2 Tintenstrahldrucker
Arbeiten wie Nadeldrucker, nur mit einzelnen Tintendüsen statt Nadeln.
Mehrere 1000 Tintentropfen pro Sekunde werden auf die Seite gesprüht.
Vorteile: bei Farbdrucken bestes Preis/Leistungsverhältnis aller Drucker
Nachteile: deutlich langsamer als Laserdrucker, Tinte bleicht aus und kann
verwischen, für gute Farbdrucker teures Papier notwendig, teure
Farbpatronen, Patronen sehr schnell leer, Patronen können austrocknen, keine
Durchschläge möglich, aufwendige Wartung.
Seit ein paar Jahren sind schon Tintenstrahldrucker erhältlich, die in
Fotoqualität drucken können. So ein Ausdruck erfordert allerdings spezielle
Tinte, sehr teures Papier (über öS 10,- pro Seite) und dauert mehrere
Minuten.
Es gibt auch schon Geräte, bei denen die Tinte durch eine Schutzschicht
(zusätzliche transparente Farbe) wasserfest gemacht wird. (z.B. Canon
BJC-7000)
Spitzenmodelle bei Tintenstrahldruckern sind z.B. HP Deskjet 970 Cxi oder
Epson Stylus Color 860, die knapp öS 5000,- kosten.
12.2.3 Laserdrucker
Arbeiten wie Kopierer; ein gebündelter Laserstrahl zeichnet Lichtpunkte auf
eine Walze und lädt sie elektrisch auf. Ist die gesamte Seite aufgezeichnet,
bleiben die Toner-Teilchen auf der Walze haften und werden dann auf Papier
aufgetragen und danach eingeschmolzen.
Vorteile: beste Druckqualität, schnellstes Arbeitstempo, geringste
Lärmbelästigung, Toner lange haltbar.
Nachteile: Schwarz-Weiß-Drucker etwas teurer als Tintenstrahldrucker,
Farblaserdrucker kosten ab öS 25.000,- aufwärts, gute Modelle kosten gar um
die öS 70.000,-
12.2.4 Plotter
Kein Punktmatrixdrucker. Gedacht für technische Zeichnungen u.ä. Ein
Tintenstrahl (früher ein Stift) zeichnet auf großflächigem Papier (bis
Format A0) geometrische Figuren wie Kurven, Kreise, Linien,...
12.3 Scanner
Gedacht zum Einlesen und Weiterbearbeiten von Fotos, Grafiken und Texten.
Man unterscheidet zwischen Handyscannern (kleiner Kasten wird von Hand über
Vorlage geführt; liefert eher schlechte Ergebnisse, dafür sehr billig; heute
kaum noch verbreitet) und Flachbettscannern. (Vorlage wird wie bei Kopierern
auf das Gerät aufgelegt.)
Das Bild wird vom Scanner analysiert, digitalisiert und zum Computer
gesandt.
Es ist auch möglich, Schriften nicht nur als "Grafik" einzuscannen, sondern
direkt im Textformat (z.B. Word 2000) abzuspeichern. Dazu benötigt man
sogenannte OCR-Software. (Optical Character Recognition, optische
Zeichenerkennung). Der Vorteil von OCR ist, dass der Text weiterbearbeitbar
ist und viel weniger Platz benötigt als die Grafik.
Gute Scanner sind heute bereits zu niedrigen Preisen (unter öS 2.000,-)
erhältlich. Leistungskriterien sind die Auflösung (wieder in dpi angegeben),
Scan-Geschwindigkeit, und die Farbtiefe (d.h. die Fähigkeit, möglichst viele
Farben unterscheiden zu können.)
12.4 Modem
(MODulator-DEModulator) Gerät, das digitale Signale in analoge umwandelt und
so die Datenübertragung über ein Telefonnetz ermöglicht. Digitale Signale,
die von Computern verarbeitet werden, lassen sich nicht direkt über das
Telefonnetz übertragen. Sie setzen sich aus separaten Einheiten zusammen,
die normalerweise mit einer Serie von Nullen und Einsen dargestellt werden.
Analoge Signale wechseln ständig. Eine Schallwelle stellt z. B. ein analoges
Signal dar.
Das Sender-Modem wandelt nun die digitalen Signale des sendenden Computers
in analoge Signale um. Erreicht das Signal seinen Bestimmungsort, stellt das
Empfänger-Modem das ursprüngliche digitale Signal wieder her, das dann vom
empfangenden Computer verarbeitet wird.
Wenn beide Modems gleichzeitig Daten übertragen können, arbeiten die Modems
im so genannten Voll-Duplex-Modus; kann nur ein Modem zu einer bestimmten
Zeit senden, funktionieren die Modems im Halb-Duplex-Modus.
Modems gibt es als externe Geräte oder als Steckkarten (besonders bei ISDN
verbreitet) - unter einem Kabel-Modem versteht man ein Modem zum Anschluss
des PC ans Internet über Kabel-TV.
12.5 Digitale Kameras
Speichern Fotos nicht auf Film, sondern digital. (Auf Diskette,
Mini-Festplatte oder Speicherkarten). Wir zählen sie zur
Computer-Peripherie, da man sie mit dem PC verbinden kann - heute schon
mittels USB (s. 13.4) und dort die Bilder weiter bearbeiten und abspeichern
kann.
Digitale Kameras sind seit 1995 erhältlich. (Damals Auflösung von 320x240
Punkte und maximal 1MB RAM).
Heutige Geräte sind schon um weniger als öS 10.000,- erhältlich und bieten
schon Auflösungen bis zu 3 Millionen Pixel. - Profigeräte (digitale
Spiegelreflexkameras, die sogar die Verwendung von Objektiven herkömmlicher
Kameras erlauben) kosten allerdings noch ein kleines Vermögen. Gute Geräte
lassen sich mit einem Handy verbinden und können so schnell Bilder versenden
(für Journalisten interessant).
Vorteile: Unerwünschte Aufnahmen sofort löschbar, keine Kosten für
Filmentwicklung, leichte Nachbearbeitung, digitale Spielereien möglich (z.B.
Weichzeichner, Mikrofon, Panoramabilder,...) geeignet für "Schnappschüsse
zwischendurch.
Nachteile: Sehr hoher Stromverbrauch, (noch) etwas niedrige Bildqualität als
herkömmliche Kameras (diese bieten ca. 7 mal so viele Pixel - also 20-22
Mio. Pixel), schlechtere Farbwiedergabe, Temperaturempfindlichkeit, bei
hoher Auflösung nur wenige Bilder speicherbar, guter Drucker für Bildausgabe
erforderlich, noch teurer als herkömmliche Kameras (zusätzlich noch hohe
Druckkosten für Fotos, vgl. 12.2.2), Gute Spiegelreflex-Digitalkameras sogar
extrem teuer (teils sechsstellige Beträge).
12.6 Sonstige Peripherie
12.6.1 Tastatur
Vergleichbar einer Schreibmaschine, heute erweitert um verschiedene
Spezialtasten für Textverarbeitung, leichtere Bedienung von Windows 9x oder
das Internet.
12.6.2 Maus
Eingebaute Rollkugel wandelt Handbewegungen in elektrische Signale um, die
zum Computer gesandt werden. Es gibt Mäuse mit zwei und drei Tasten, Mäuse
mit einem Rädchen (z.B. zum Scrollen) sowie kabellose Mäuse (arbeiten mit
Infrarotlicht).
Eine Revolution in der Maustechnologie gelang Microsoft Ende 1999 mit dem
"Intellieye" - die Kugel wird hier durch eine miniaturisierte Digitalkamera
ersetzt, die pro Sekunde 1.500 Bilder von der Unterlage macht und dadurch
besonders präzise Bewegungen ermöglicht. Auch das Mouspad wird dadurch nicht
mehr benötigt und die Maus ist praktisch wartungsfrei!
Das Spitzenmodell von Microsoft - die Intellimouse Explorer mit zwei
zusätzlichen programmierbaren Tasten, einem Rad und dem Intellieye kostet
ca. öS 900,-
12.6.3 Eingabegeräte für Computerspiele
? Joystick: Bewegungen eines Steuerknüppels und Tastendrucke werden in
Signale umgewandelt und zum PC gesandt. Besonders geeignet für
Flugsimulatoren.
? Gamepad: kleines Brett mit vielen Knöpfen; geeignet für Hüpf- und
Springspiele
? Trackball: "umgedrehte Maus"; Balldrehungen steuern Spielfiguren;
? Lenkräder: werden häufig mit Pedalen ausgeliefert; gedacht für
Auto-Rennspiele
? Force-Feedback-Geräte: Joysticks, Lenkräder, Mäuse(!) und Sessel (!!!),
die Kraft an den Spieler übertragen (d.h. rütteln, etwa bei Turbulenzen im
Flug oder beim Fahren über Schotter).
12.6.4 Kombinationsgeräte
Die teilweise verwandten Fähigkeiten mancher Peripheriegeräte führen dazu,
dass sogenannte Kombigeräte immer häufiger in den Geschäften zu finden sind.
Beispiele: Fax-Modem
Scanner-Drucker
Sogar eine Kombination aus Telefon, Anrufbeantworter, Fax, Drucker und Modem
ist schon erhältlich.
12.7 Multimediakomponenten
12.7.1 Grafikkarten
Die Grafikkarte sorgt für die Ausgabe von Texten und Bildern am Monitor. Für
Grafiker und Computerspieler ist die Grafikkarte heute eine der wichtigsten
Komponente des PC,
Kaufkriterien für Grafikkarten sind vor allem:
Hauptspeicher:
Vom eingebauten Hauptspeicher (heute schon bis 32 MB) sind die maximal
mögliche Auflösung (idealerweise mindestens 1600x1200 Punkte) und die Anzahl
der dabei darstellbaren Farben (unbedingt "True Color", also 16,7 Millionen
Farben oder 24 Bit) abhängig.
Weniger als 8 MB Speicher ist heute nicht mehr sinnvoll, für moderne
Computerspiele sind sogar 32 MB notwendig.
Das Bussystem:
Heute üblich sind Grafikkarten für den PCI- und den AGP-Bus.
AGP-Grafikkarten sind auf jeden Fall vorzuziehen, da sie schneller sind und
zusätzlich zum eigenen Speicher das RAM des PC verwenden können. (siehe auch
11.4)
Der Grafikchip:
Dieser bestimmt, wie schnell die Grafikkarte Bilder aufbauen kann und wie
viele Bilder pro Sekunde möglich sind. Um etwa schnell scrollen zu können
oder Fenster ohne Ruckeln zu verschieben, braucht man einen schnellen
Grafik-Chip.
3D-Fähigkeiten:
Besonders für Multimedia (speziell Computerspiele) ist es wichtig, dass
moderne Grafikkarten einen schnellen 3D-Chip besitzen. Diese Chips sorgen
dafür, dass dreidimensionale Objekte schneller berechnet werden können und
ermöglichen so mehr Bilder pro Sekunde und damit eine flüssige Darstellung
auch bei hohen Auflösungen - außer dieser Fähigkeit können 3D-Chips Objekte
mit Texturen überziehen und beherrschen zahllose Techniken zur
Beschleunigung und Verbesserung der Bilddarstellung. (Spiegelungen auf
Objekten, Transparenzeffekte, farbiges Licht, Nebel, etc.)
Anfang 1997 waren solche Spezialchips nur auf 3D-Zusatzkarten, die parallel
zur "normalen" Grafikkarte eingebaut wurden (z.B. Diamond Monster 3D)
verbreitet, seit Ende 1998 gibt es bereits Grafikkarten, die 2D und 3D
perfekt beherrschen. 3D-Zusatzkarten sind daher nicht mehr sinnvoll und
werden seit 1999 auch nicht mehr produziert.
Der schnellste und beste 3D-Chip (Stand Februar 2000) ist der GeForce 256
DDR der Firma nVidia.
Erhältlich u.a. auf der "Erazor X" von Elsa oder der "Annihilator Pro" von
Creative Labs.
Zubehör:
Beim Kauf einer Grafikkarte sollte man auch darauf achten, dass folgendes
Zubehör verfügbar ist:
- Aktuelle Treiber (ansonsten Suche im Internet notwendig)
- Software (viele Grafikkarten werden mit Multimediasoftware und Spielen
ausgeliefert)
- TV-Ausgang (zur Bild-Ausgabe am Fernseher, spart den Kauf eines
DVD-Players, wenn ein DVD-Laufwerk - s. 9.3.2 - vorhanden ist.)
- TV-Eingang und Tuner (ermöglicht TV und Radioempfang am PC, ansonsten Kauf
einer eigenen TV-Karte - z.B. von Hauppauge - erforderlich)
- Kompatibilität zu OpenGL und DirectX, den gebräuchlichsten
Grafikschnittstellen.
12.7.2 Soundkarten
Sorgen für die Klangausgabe und sind im Multimediazeitalter unbedingt
erforderlich. Sehr gute Karten sind bereits unter öS 2000,- erhältlich,
billige Modelle gibt es schon für öS 500,-
Soundkarten bestehen im wesentlichen aus:
- Aufnahme-/Wiedergabeteil (wichtig u.a. zum Abspeichern von Musik oder zur
Sprach-erkennung)
- Klangerzeugungsteil (zur Simulation von Orchester- u.a. Instrumenten, die
zuvor digitalisiert und auf der Karte abgespeichert wurden - man nennt diese
Klangbibliothek auch "Wavetable"; früher wurden diese Klänge synthetisch
hergestellt ("FM") und klangen entsprechend künstlich)
- Diverse Anschlüsse (LINE IN-, LINE OUT-, Lautsprecher- und
Mikrophonbuchsen) Gute Soundkarten sind weiters 3D-Sound und
Surroundsoundfähig und haben eine CD-Schnittstelle (d.h. man kann sie als
Controller für CD-Laufwerke verwenden und CD-Audio-Musik über die Soundkarte
auf Boxen oder eine Stereoanlage umleiten.)
Heutiger Standard für PC-Soundkarten ist der Soundblaster der Firma Creative
Labs mit dem Spitzenmodell "Soundblaster Live! Platinum"
Soundkarten gibt es für den ISA- und den PCI-Bus, wobei der PCI-Bus hier
nicht unbedingt notwendig ist, ähnlich wie bei Netzwerkkarten. Eine
PCI-Soundkarte entlastet allerdings den Prozessor, ist also vorzuziehen.
(Vgl. 11.3)
12.7.3 Lautsprecher-Boxen
Erforderlich für den kompletten Soundgenuss (wichtig für HiFi-Freaks,
Musiker und Computerspieler) sind selbstverständlich gute Boxen, am besten
ein Set aus 5 Satelliten und einem Subwoofer - solche Sets (speziell für
Computer) sind heute schon günstig (um öS 1.000,-) erhältlich und bieten
teils schon sehr gute Klang-Qualität. (z.B. Dolby Surround Ton)
12.7.4 Mikrofone
Dienen zur Aufzeichnung von Sprache (speziell für Spracherkennungssoftware
und zum Telefonieren in Netzwerken).
12.7.5 WebCams
Gemeint sind hiermit nicht Kameras zum Drehen von Urlaubsfilmen, sondern am
Monitor befestigte Geräte niedriger Bildqualität, die die Übertragung
bewegter Bilddaten über ein Netzwerk ermöglichen. So sind Bildkonferenzen
bzw. Bildtelefonate möglich. Die Bildqualität ist deshalb niedrig, weil
hochauflösende bewegte und großformatige Bilder nicht in Echtzeit über
Netzwerke (besonders über das Internet) übertragen werden können. (Auch
nicht mit ADSL).
13 Schnittstellen (Interfaces)
Oberbegriff für alle Übergangs- und Verbindungsteile, mit denen selbständig
arbeitende Funktionseinheiten eines Computers miteinander verbunden sind.
Man unterscheidet in interne und externe Schnittstellen. Interne verbinden
etwa CPU und RAM, externe etwa Motherboard mit Drucker. Die
Datentransferrate wird in bps (bits per second) gemessen.
13.1 Die serielle Schnittstelle
(auch RS 232C oder V.24 Schnittstelle genannt) Schnittstellen-Standard mit
25- oder 9-poliger Verbindung für die serielle Übertragung von Bits (daher
niedrige Übertragungsraten).
Datenaustausch ist in beide Richtungen möglich.
Auch als "COM-Ports" bezeichnet. An diesen Anschlüsse werden in der Regel
die Maus, ein Nullmodem-Kabel, und / oder das Modem angeschlossen. Speziell
beim Anschluss eines Modems, sollte ein COM-Port mit einem besonderen
Baustein verwendet werden: "UART" mit FIFO". Damit sind höhere
Übertragungsraten möglich als mit Standard-Schnittstellen.
13.2 Die parallele Schnittstelle
(auch Centronics-Schnittstelle) Schnittstelle am Computer, die im Gegensatz
zur seriellen Schnittstelle die Datenübertragung auf acht Leitungen (also
mit einer Übertragung von 8 Bits gleichzeitig) unterstützt. An die parallele
Schnittstelle wird in der Regel der Drucker angeschlossen, oder auch ein
ZIP-Laufwerk.
Relativ schnell, aber Kabel maximal 5-6 m lang - Informationen nur in eine
Richtung sendbar.
13.3 ECP (Extended Capability Port)
Eine Erweiterung der parallelen Schnittstelle, die den Anschluss mehrerer
Geräte an den Parallelport sowie eine insgesamt höhere Übertragungsrate
zulässt. Moderne Drucker können meist im sogenannten ECP-Modus betrieben
werden, sofern der Rechner dies unterstützt. Datenübertragung ist hier auch
in beide Richtungen möglich.
13.4 USB (Universal Serial Bus)
Neues System zur Ansteuerung aller möglichen Peripherie (Monitor, Maus,
Scanner, ...). Ein moderner PC hat zumeist zwei USB Anschlüsse. Stecker und
Buchse für alle USB-Geräte gleich.
Vorteile:
- Plug & Play: Windows 98 / 2000 erkennt die Geräte sofort nach dem
Einstecken, installiert automatisch die passenden Treiber und macht die
Hardware betriebsfertig.
- Hot-Plug-Fähigkeit: Wenn ein USB-Gerät an- oder abgesteckt werden soll,
muss der Rechner vorher nicht mehr heruntergefahren werden.
- An einer USB-Schnittstelle finden bis zu 127 Geräte Anschluss. Zum
Anschluss von mehr als zwei Geräten wird daher ein Verteiler (USB-Hub, teils
in USB-Monitoren integriert) benötigt.
- Die maximale Datenrate beträgt 1,5 oder 12 MBit/s (USB 1.1) - je nachdem,
welche der beiden Geschwindigkeiten das angeschlossene Gerät erfordert.
- "Daisy-Chaining" (Geräte können nacheinander angesteckt werden, nicht mehr
jedes einzelne muss mit dem PC verbunden sein).
Heute sind schon zahlreiche Geräte (ZIP-Laufwerke, Monitore, Joysticks,
Mäuse,...) in USB-Versionen lieferbar.
13.5 Firewire (IEEE 1394)
Eine von Apple entwickelte recht neue serielle Schnittstellentechnologie für
Computer- und Videogeräte zur Übertragung digitaler Daten mit bis zu 400
Mbit / Sek.
14 Lokale Netzwerke (LAN)
Mindestens zwei Arbeitsplätze sind notwendig, eine Netzwerkkarte pro
Arbeitsplatz, Kabelverbindungen und ein netzwerkfähiges Betriebssystem.
Die Karte und die Kabel übernehmen die Verbindung der Stationen, die Daten
werden von der Karte über sogenannte Netzwerktreiber gesendet und empfangen
und in eine über die Kabel transportierbare Form umgewandelt. Das
Betriebssystem schließlich organisiert die Daten und regelt die Zugriffe.
Auf einem Server kann sich eventuell auch ein eigenes Netzwerkbetriebssystem
befinden, das nicht dasselbe sein muss wie das auf den Terminals. (Etwa ein
zentraler Server mit Windows 2000 mit mehreren angeschlossenen Windows 98
Workstations).
14.1 Vorteile eines LAN
Ein LAN besitzt zahlreiche Vorteile gegenüber isolierten Systemen:
? Gemeinsamer Zugriff auf die Peripherie
Nicht jeder Arbeitsplatz benötigt beispielsweise einen Laserdrucker,
Plotter, Fax,... - d.h. erhebliche Platz- und Geldeinsparungen möglich.
? Gemeinsamer Zugriff auf die Software
Es ist nicht mehr notwendig, umfangreiche Software auf jedem Arbeitsplatz zu
installieren. Diese befindet sich auf einem zentralen Rechner (Server).
Individuelle Einstellungen (Anordnung der Icons am Bildschirm, Namen der
zuletzt gespeicherten Dateien, etc.) werden wie gewohnt auf den einzelnen
Arbeitsplätzen gespeichert.
Gleichzeitige Zugriffe auf Daten werden durch eine sogenannte
Locking-Funktion verhindert. Dazu benötigt man allerdings spezielle
Netzwerkversionen der Software.
? Gemeinsamer Zugriff auf Informationen
Alle Netzwerkteilnehmer können auf eine zentrale Datenbank zugreifen. Alle
Informationen stehen so jedem berechtigten Benutzer jederzeit zur Verfügung.
? Zentrale Verwaltung
Gemeinsam genutzte Software, Peripherie und Daten müssen nur von einer
Person (Administrator) gewartet und gepflegt werden. (Dieser muss dafür aber
entsprechend ausgebildet sein, da Netzwerkadministration längere
Einarbeitungszeit voraussetzt.)
? Billige Terminals
Die einzelnen Arbeitsplatzrechner in einem Netz (Terminals) müssen nicht die
modernsten, schnellsten Geräte sein, da der Server einen gewissen Teil der
Arbeit verrichten kann.
? Elektronische Post (E-Mail)
Ersatz für Telefon, Papier und Bleistift. Zusendung in wenigen Sekunden
möglich; falls der Empfänger nicht anwesend ist, bleibt die Nachricht für
ihn gespeichert.
? Workgroup-Computing
Neues, arbeitsorganisatorisches Prinzip. Mehrere Mitarbeiter an einem
Projekt bearbeiten es gleichzeitig, ohne dauernd Disketten austauschen zu
müssen - der Datenaustausch erfolgt über das Netzwerk; jeder ist immer auf
dem neuesten Stand.
14.2 LAN-Typen
Bei einem LAN unterscheidet man grob zwei Typen von Netzwerken:
14.2.1 Peer-to-Peer
(= "gleicher zu gleichem"); Jeder Rechner ist gleichzeitig Server und
Arbeitsstation. Da auf jedem Rechner definiert werden muss, welche
Nutzungsrechte jeder andere Rechner hat, ist diese Lösung nur für kleinere
Netzwerke geeignet. Windows 3.11 (Windows für Workgroups) bot beispielsweise
schon diese Möglichkeit. Mit Windows 98 lassen sich Peer-to-Peer Netze
relativ komfortabel einrichten.
14.2.2 Client und Server
Zentrale Einheit (Server) regelt Zugriffe auf Software, Daten und
Peripherie. Dieses System bietet alle in 14.1 erwähnten Vorteile. Bei
komplizierten Netzen übernimmt der Server ausschließlich die
Netzwerksteuerung und -verwaltung und übernimmt keine
Arbeitsstationsaufgaben, wie bei einem Peer-to-Peer LAN.
14.3 Bestandteile eines Netzwerks
Eine Kabelverbindung zwischen Rechnern alleine reicht freilich nicht für ein
Netzwerk aus. Man benötigt folgende Komponenten:
? Netzwerkhardware
Stellt physikalische Verbindung her.
- Kabel
- Netzwerkkarten
- Hub (Knotenpunkt eines Sternförmigen (s.u.) Netzes - dient als Verteiler
und Signal-verstärker.)
- Router (verbindet räumlich getrennte LANs über eine
Telekommunikationsleitung)
Es gibt bereits drahtlose Netzwerkverbindungen (z.B. die Diamond HomeFree
Netzwerkkarte - LAN über Funk!)
? Netzwerksoftware
Netzwerkbetriebssystem mit für den Betrieb notwendigen Funktionen
(File-Serving, Printer-Serving, Drucker-Spooling, Sicherheitsabfragen für
Passwörter und Dateischutz, E-Mail, etc.)
Früher war Novell NetWare marktführend, mittlerweile dominieren Windows NT
und UNIX den Netzwerkmarkt.
14.4 Netzwerktopologien
Eine weitere Klassifikation beim LAN ist die sogenannte Netzwerk-Topologie,
die Anordnung der Verbindungen zwischen den einzelnen Computern. Man
unterscheidet in:
14.4.1 Bus-Topologie
Alle Rechner (inklusive dem Server) hängen an einem Kabel, welches aber
keinen Ring bildet. An den beiden Enden des Kabels muss sich ein sogenannter
Endwiderstand befinden. (siehe Skizze)
Der Auf- und Abbau der Verbindung, die korrekte Adressierung der
Informationen und deren Aufteilung in einzelne "Datenpakete" geschieht durch
das "Protokoll" TCP/IP (Transmission Control Protocol/Internet Protocol)
Vorteile: leichtes Anschließen neuer Stationen, keine Störung bei Ausfall
einer Station.
Nachteile: Immer nur eine Nachricht auf der Leitung unterwegs.
Ethernet ist das verbreitetste Netzwerk mit Busstruktur. (Eine
Ethernet-Karte ist schon um gut 100,- erhältlich.)
14.4.2 Stern-Topologie
Alle Information läuft über einen zentralen Vermittler (siehe Skizze), es
gibt keine direkte Verbindung zwischen den einzelnen Terminals. Die
Installation ist komplizierter als ein Bus-Netz, es wird zusätzlich noch ein
Hub benötigt.
Vorteile: leicht erweiterbar, kaum Störung bei Ausfall einer Station.
Nachteile: Totalausfall bei Ausfall des Zentralrechners, aufwendige
Installation und Verkabelung.
Skizze: Stern-Topologie
14.4.3 Ringtopologie
Zentralstation ist hier nicht unbedingt erforderlich, die Terminals hängen
an einem Ring.
(siehe Skizze rechts)
Beispiel: IBM-Token-Ring.
Vorteile: leicht erweiterbar, geringe Leitungszahl, kein Zentralrechner
erforderlich, Datentransport sehr effizient.
Nachteile: Totalausfall bei Ausfall einer Leitung, Übertra-gungsdauer von
Entfernung abhängig.
Inhaltsverzeichnis
1 VORWORT 4
2 GRUNDLAGEN 5
2.1 BEGRIFFE 5
2.2 WOZU INFORMATIK? 5
2.3 DAS BINÄRSYSTEM 6
3 COMPUTER-KATEGORIEN 8
3.1 UNTERTEILUNG NACH LEISTUNG 8
3.2 UNTERTEILUNG NACH BAUWEISE 8
4 DAS INTERNET 10
4.1 EINLEITUNG 10
4.2 DER ZUGANG ZUM INTERNET 10
4.3 COMPUTERNETZWERKE 11
4.4 ALLGEMEINES ZUM INTERNET 11
4.5 GRUNDBEGRIFFE 12
4.6 DIENSTE DES INTERNET 13
5 AUFBAU UND ARBEITSWEISE EINES COMPUTERS 16
5.1 BESTANDTEILE EINES PC 16
5.2 ARBEITSWEISE EINES PC 16
6 PC-PROZESSOREN 18
6.1 GRUNDBEGRIFFE ZUR CPU 18
6.2 LEISTUNGSMERKMALE VON PCS 18
6.3 DIE INTEL-PROZESSOREN 19
6.4 AMD 21
6.5 APPLE COMPUTER 21
6.6 VIA 21
7 EINE KURZE GESCHICHTE DER COMPUTERS 22
8 INTERNE SPEICHER 23
8.1 RAM (ARBEITSSPEICHER) 23
8.2 ROM (FESTWERTSPEICHER) 23
9 EXTERNE SPEICHER 24
9.1 CONTROLLER 24
9.2 MAGNETISCHE SPEICHER 25
9.3 OPTISCHE SPEICHER 27
9.4 MAGNETO-OPTISCHE SPEICHER 28
9.5 ZUSAMMENFASSUNG 29
10 BETRIEBSSYSTEME 30
10.1 AUFGABEN DES BETRIEBSSYSTEMS 30
10.2 KLASSIFIKATION VON BETRIEBSSYSTEMEN 30
10.3 DER STARTVORGANG BEI EINEM PC 30
10.4 ÜBERBLICK ÜBER DIE WICHTIGSTEN BETRIEBSSYSTEME 31
11 BUSSYSTEME 35
11.1 DER ISA-BUS (INDUSTRY STANDARD ARCHITECTURE) 35
11.2 DER VESA-LOCAL-BUS 35
11.3 DER PCI-BUS (PERIPHERAL COMPONENT INTERCONNECTOR) 35
11.4 DER AGP-BUS (ACCELERATED GRAPHICS PORT) 35
12 EIN- UND AUSGABEGERÄTE 36
12.1 MONITOR 36
12.2 DRUCKER 37
12.3 SCANNER 38
12.4 MODEM 38
12.5 DIGITALE KAMERAS 38
12.6 SONSTIGE PERIPHERIE 39
12.7 MULTIMEDIAKOMPONENTEN 40
13 SCHNITTSTELLEN (INTERFACES) 42
13.1 DIE SERIELLE SCHNITTSTELLE 42
13.2 DIE PARALLELE SCHNITTSTELLE 42
13.3 ECP (EXTENDED CAPABILITY PORT) 42
13.4 USB (UNIVERSAL SERIAL BUS) 42
13.5 FIREWIRE (IEEE 1394) 42
14 LOKALE NETZWERKE (LAN) 43
14.1 VORTEILE EINES LAN 43
14.2 LAN-TYPEN 43
14.3 BESTANDTEILE EINES NETZWERKS 44
14.4 NETZWERKTOPOLOGIEN 44
1 Vorwort
zur fünften, überarbeiteten Ausgabe
Dieses Skript liefert einen kurzen Einblick in die Welt des PCs mit den
Schwerpunkten Hardware und Internet. Ich möchte an dieser Stelle folgende
Bücher bzw. Zeitschriften zitieren, die ich als Informationsquellen benutzt
habe:
- J.Ortmann: Einführung in die PC-Grundlagen, ECON Taschenbuch Verlag
- A. Dickschus: PC-Wissen, Wilhelm Heyne Verlag GmbH & Co. KG, München
- PC Professional, Ziff-Davis Verlag GmbH
- ... und natürlich das Internet
Die fünfte Auflage wurde stark überarbeitet - viele Kapitel wurden komplett
neu geschrieben, das Inhaltsverzeichnis wurde verkürzt, weiterführender
Stoff für "Fortgeschrittene" ist ab sofort mit einem Rahmen umgeben und
kursiv geschrieben.
für Wünsche, Anregungen und Beschwerden schicken Sie mir bitte E-Mail an:
und besuchen Sie mich im Internet unter
Viel Vergnügen mit den folgenden Seiten,
Marcel-Oliver Widi
Februar 2000
2 Grundlagen
2.1 Begriffe
Computer von englisch "to compute" = rechnen
PC personal computer
Daten Buchstaben, Wörter, Ziffern, Zahlen, Messwerte, Signale
Multimedia Oberbegriff für Daten aus den Bereichen Sprache, Musik, Grafiken,
Videos, ...
Hardware "alles, was man anfassen kann". (D.h. Prozessor, Monitor, Maus,
Drucker, Festplatte, Diskette, Motherboard, Grafikkarte, Speicher,...)
Peripherie Extern an den Computer angeschlossene Hardware (Drucker, Monitor,
Scanner, Maus, ...)
Software sämtliche ausführbare Programme, von Tabellenkalkulation (z.B.
Excel) über Datenbank (z.B. Access) und Textverarbeitung (z.B. Word) bis zu
Multimedia-Lexika (z.B. Microsoft Encarta) und Computerspielen.
Betriebssystem Spezielle Software: Ein Betriebssystem ist ein Programm, das
Befehle bereitstellt und dem Computer sagt, wie er damit arbeiten soll. Es
steuert den Rechner, leitet Daten und Befehle weiter, verwaltet den
Speicher, kontrolliert die Peripherie, etc.
kurz: Schnittstelle (Interface) zwischen Computer und Mensch.
Beispiele: Microsoft(MS)-DOS, MS-Windows 98 SE, MS Windows 2000, MS Windows
CE, UNIX, Linux, OS/2, Mac-OS, etc.
Datenverarbeitung Eingabe, Speichern, Rechnen, Vergleichen, Sortieren,
Prüfen, Ausgabe von Daten. - Wird mit Hilfe spezieller Software erledigt.
EDV elektronische Datenverarbeitung (heute auch "Informationsverarbeitung")
Informatik (formale Definition:) "Das Studium der Computer, das ihren
Entwurf, ihre Arbeitsweise und ihre Verwendung in der Datenverarbeitung
sowie die Erforschung und Entwicklung der theoretischen und technologischen
Grundlagen der Informationsverarbeitung umfasst. Die Informatik kombiniert
sowohl die theoretischen als auch die praktischen Aspekte der
Ingenieur-wissenschaften, Elektronik, Informationstheorie, Mathematik, Logik
und des menschlichen Verhaltens. Die Themenbereiche der Informatik reichen
von der Programmierung über Compilerbau, Formulierung von Algorithmen bis
hin zu künstlicher Intelligenz und Robotertechnik. In Österreich wird
Informatik seit den sechziger Jahren als Studienfach angeboten."
2.2 Wozu Informatik?
Der PC wurde früher nur professionell verwendet (Militär, Universität,
Wissenschaft, ...) - heute wird das gesamte Berufsleben vom PC beherrscht -
Korrespondenz, Kundenadressen, Organisation, Kalkulation, Datenbanken,
etc...
Besonders Telearbeit (Arbeit am PC zu Hause statt im Büro) E-Commerce
(Einkaufen via Internet) und Telebanking gewinnen von Jahr zu Jahr an
Bedeutung.
Immer wichtiger wird der PC auch im Bereich der Information (WWW,
Newsgroups) und Kommunikation (E-Mail, Internet-Telefonie).
Dazu kommen Privatanwendungen wie Haushaltsverwaltung (Strom, Telefon,...),
Multimedia (Lexika) und Spiele.
Für den einzelnen heißt das, dass er den Umgang mit Computern lernen muss,
wenn er nicht von dieser Entwicklung überrollt werden will. Heutige
Stellenangebote zeigen, dass EDV-Kenntnisse auch in nicht auf EDV
spezialisierten Berufen vielfach vorausgesetzt werden.
2.3 Das Binärsystem
Computer arbeiten mit Strom. Dort gibt es zwei Grundzustände:
Strom fließt zumeist repräsentiert durch "1"
Strom fließt nicht "0"
Die Darstellung von "Zwischenwerten" (Strom fließt in einer gewissen Stärke)
hat sich nicht durchgesetzt.
Jeder Zustand eines Computers (von der Darstellung einer Zahl bis hin zur
Tabellenkalkulation) basiert daher auf lauter (sehr vielen) Nullen und
Einsen. Die kleinste Informationseinheit eines Computers ist also eine Null
oder eine Eins, man nennt dies ein Bit (von englisch "binary digit" = binäre
Ziffer)
2.3.1 Digital und analog
Digital (von lateinisch digitus = Finger) Informationen nur im Rahmen
genau definierter Werte - Zwischenwerte sind nicht möglich. (z.B. digitales
Thermometer)
Analog (von griechisch: analogos = verhältnismäßig, proportional).
Fließende Darstellung von Werten - im Gegensatz zu digitalen Signalen können
analoge Signale beliebige Zwischenwerte annehmen. (z.B. Tachometer)
Digitalisierung Umwandlung analog ? digital (z.B. Scannen eines Fotos,
Speichern von Musik auf einer CD, Fotografieren mit digitalen Kameras)
2.3.2 Zahlendarstellung
Um nur mit Nullen und Einsen dezimale Zahlen repräsentieren zu können,
verwendet man das Binärsystem mit seinen zwei Ziffern 0 und 1. Dieses
Zahlensystem ist genauso wie das Dezimalsystem definiert, nur mit Basis 2:
Dezimal: 2638 = 2*103+6*102+3*101+8*100 = 2*1000 + 6*100 + 3*10 + 8*1
Binär: 1101 = 1*23+1*22+0*21+1*20 = 1*8 + 1*4 + 0*2 + 1*1
(es wird also lediglich der 10er durch einen Zweier ersetzt!)
Binäres Rechnen funktioniert wie folgt (Beispiel):
0+0 = 0; 0+1 = 1; 1+1 = 10 (kein 2er existiert - man könnte das auch so
schreiben:
1
+ 1
= =
1 0
Verbal: Eins plus eins = null ( eins weiter), Eins plus Null = Eins.
1 1 1
0 1 0
= = = =
1 0 0 1
Verbal: Eins plus Null = Eins, Eins plus Eins = Null (Eins weiter), etc...
Digitale Subtraktion und Multiplikation wird analog ausgeführt. (Man
verzeihe mir das Wortspiel!)
2.3.3 Zeichendarstellung
Außer den 26 Buchstaben (52 bei Unterscheidung groß/klein) werden am
Computer noch weitere Zeichen benötigt (Etwa %, &, ?, #, @, etc.) - Um die
256 wichtigsten Zeichen darzustellen, benötigt man also 256 verschiedene
Zahlen, also die binären Entsprechungen von 0-255.
Die Dezimalzahl 255 entspricht der Binärzahl 1111 1111, besteht daher aus 8
Bit. Man kann mit 8 Bit also jedes benötigte Zeichen darstellen. 8 Bit
bezeichnet man als ein Byte.
Ein Zeichen entspricht am Computer also einem Byte. Um beispielsweise die
Zeichenfolge "Teil 1" darzustellen, benötigt man daher 6 Byte (auch das
Leerzeichen ist ein Zeichen!).
Die hohen Datenmengen, die heute auftreten erfordern folgende Abkürzungen
1024 Byte = 1 KB (Kilobyte)
1024 KB = 1 MB (Megabyte)
1024 MB = 1 GB (Gigabyte)
1024 GB = 1 TB (Terabyte)
Warum immer 1024 und nicht 1000? Das liegt daran, dass 1024 eine
Zweierpotenz ist (210). Auch hier versteckt sich wieder das Binärsystem.
Die 256 Zeichen sind zumeist entsprechend dem sogenannten ASCII-Code
(American Standard Code for Information Interchange) angeordnet. Einem "n
entspricht beispielsweise das Byte 0110 1110, d.h. die Dezimalzahl 112).
Man fasst oft die beiden Vierergruppen (Halbbytes, Nibbles) zu zwei Werten
von 0-15 zusammen, dies führt zum sogenannten Hexadezimalsystem mit 16
Ziffern. (0-9, A, B, C, D, E und F) und analogen Umrechnungs- u.
Rechenregeln wie zuvor beim Binärsystem.
So lässt sich beispielsweise unser "n" kürzer als "6E" repräsentieren. (0110
= 6, 1110 = E).
3 Computer-Kategorien
3.1 Unterteilung nach Leistung
3.1.1 Supercomputer
Die Königsklasse der Rechner. Sie haben etliche Gigabyte Hauptspeicher, oft
einige Terabyte an Massenspeicher (Festplatte) und eine Rechenleistung, die
diejenige gewöhnlicher PCs um einen Faktor von einigen tausend bis Millionen
übersteigt. Supercomputer werden zur Lösung großer mathematischer Probleme
eingesetzt, wie sie bei Strömungssimulationen, Klimaforschung, Crashtests,
Wettervorhersagen, Simulation von Atombombentest etc. auftreten - folglich:
Supercomputer sind unbezahlbar.
3.1.2 Großrechner (Host, Mainframe)
Hauptrechner eines Computersystems, an das sehr viele Arbeitsstationen
angeschlossen sind und das mit Arbeitsspeicher von mehr als 100 MByte und
Festplattenkapazitäten im TByte-Bereich ausgestattet sein kann. In den 70er
Jahren waren dies die vorherrschenden Anlagen für große Betriebe (Banken,
Universitäten u.a.). Mittlerweile werden diese von den leistungsfähigen
Server-Netzwerken (s. Kapitel 14) verdrängt.
3.1.3 Workstations (Minicomputer)
Zweifach verwendeter Begriff:
i. Schneller PC mit den Aufgaben eines Großrechners.
ii. Terminal (Ein PC in einem Netzwerk, der auf Dienste eines Servers
zugreift.)
3.1.4 PCs (Mikrocomputer)
Die Bezeichnung PC kommt daher, dass nicht mehr jeder Benutzer auf einen
Großrechner angewiesen ist, sondern seinen eigenen "persönlichen" Computer
am Arbeitsplatz stehen hat.
Man beachte, dass die Grenzen zwischen den Computer-Typen heute fließend
sind. Manche PCs (besonders für Computerspieler) sind heute leistungsfähiger
als etwas ältere Großrechner.
3.2 Unterteilung nach Bauweise
Wir beschränken uns hier im wesentlichen auf PC-Typen.
3.2.1 Desktop- und Tower-PCs
Stationäre Systeme, von englisch "desktop" = Schreibtisch.
Klassisches System: Monitor, Tastatur, Maus, Bildschirm, etc..
Bei Desktop-PCs steht der Monitor auf einem kleinen Gehäuse, beim Tower
steht das (meist größere Gehäuse) neben dem Monitor oder unter dem Tisch. Je
nach Größe Unterscheidung in Mini-, Midi-, Big- und Server-Tower.
Vorteil ist die Standardbauweise, wodurch sie leicht individuell angepasst
werden können, massenweise Zusatzkomponenten erhältlich sind, und auch der
Preis verhältnismäßig niedrig bleibt.
3.2.2 Tragbare Computer
Sind gedacht für den Einsatz außer Haus (Konferenzen, Flugzeug, Bahn, ...) -
fast so leistungsfähig wie Desktop-PCs, aber deutlich teurer, durch
aufwendigere Technik (Stoßsicherheit, Stromsparmodus, TFT-Bildschirm
(s.12.1.2)) und niedrigere Stückzahlen. Sie arbeiten zumeist mit kurzlebigen
Akkus.
Früher waren sogenannte Laptops gebräuchlich, mit Preisen bis zu 100 000,-
und hohem Gewicht. ("Schlepptops") - Seit Anfang der neunziger Jahre
verbreitet sind sogenannte Notebooks im Format A4, mit allen Komponenten,
die auch ein Desktop-PC besitzt. (Soundkarte, CD-Laufwerk, Festplatte,
hochauflösender Farbbildschirm, eingebautes Modem etc.)
Port-Replikatoren und Docking-Stationen ermöglichen den einfachen Anschluss
zusätzlicher Hardware an ein Notebook.
Bei nahezu gleicher Leistung sind Notebooks allerdings etwa doppelt so
teuer. Die kleine Tastatur ist ein weiterer Nachteil ebenso wie die immer
noch kurzlebigen Akkus.
Weitere Typen sind Subnotebooks, Palmtops, Handhelds, Mini-Notebooks,
Organizer, PDAs (sehr klein, arbeiten teilweise mit Windows CE (s. 10.4.8),
häufig Anschluss-möglichkeit an größere PCs oder Telefon).
Die kleinsten sind die sogenannten Notepads oder Penbooks (keine Tastatur
oder Maus, im wesentlichen nur ein handflächengroßer schiefer-tafelartiger
Bildschirm, auf dem man mit einem speziellen Stift Daten eingeben kann.
Die sogenannten Pocket-Computer sind keine eigentlichen Computer, sondern
nur leistungsfähige Taschen-rechner mit Zusatzfunktionen wie
Adressverwaltung, Memo, Kalender, Telefonkartei etc.)
4 Das Internet
4.1 Einleitung
Wichtiger Faktor bei der Arbeit am PC, in wenigen Jahren wahrscheinlich
wichtigster überhaupt. (Information, Kommunikation, Datenaustausch,
Einkaufen, Homebanking, Unterhaltung, etc...)
Netzwerk Mehrere miteinander verbundene Computer, die Daten miteinander
austauschen.
Internet (International Network) Unzählige kleinere Computernetzwerke, die
über Kabel, Satelliten und Funk weltweit verbunden sind.
4.2 Der Zugang zum Internet
Der Zugang zum Internet ist beispielsweise mittels in Windows 98
integrierter Software (Internet Explorer) jedem möglich. Notwendig sind
(zumeist) ein Modem (s. 12.4) und ein sogenannter Internet-Provider (siehe
4.5.1), mit dem man sich (zumeist, s.u.) über die Telefonleitung verbindet
und der einen dann ins Internet weiterleitet.
Für den Anschluss des PC ans Internet stehen mehrere Optionen zur Auswahl:
4.2.1 Analoges Modem
Günstig, aber niedrige Übertragungsgeschwindigkeit und nur eine Leitung
verfügbar - d.h. entweder Telefonieren oder Surfen.
4.2.2 ISDN
(Modem oder Steckkarte) Ermöglicht höhere Übertragungsraten, zwei freie
Leitungen, etwas teurer.
4.2.3 Kabelmodem
Internetzugang via Kabelfernsehen. Relativ teuer, dafür sehr schnell (etwa
8-fache Geschwindkeit von ISDN)
4.2.4 Internet via Satellit
Derzeit noch wenig verbreitet, wesentlich höhere Übertragungsraten (bis zu
64 Megabits pro Sekunde) möglich. Einer der ersten Satelliten für das
notwendige Satellitennetz startete Anfang März 1998 - der Beginn des
Netzbetriebes ist für 2001/2002 geplant.
4.2.5 Internet via Steckdose
Existiert derzeit nur als Versuchsprojekt, (dies soll sich aber im Laufe des
Jahres 2000 ändern...).
4.2.6 ADSL
Modernster Standard für Internetzugang. Drei Leitungen frei, extrem schnell,
(noch) sehr teuer, in Österreich (noch) nicht überall verfügbar.
ADSL im Detail: Abkürzung für "Asymmetric Digital Subscriber Line" - ADSL
teilt den Kupferdraht einer herkömmlichen Telefonleitung digital in drei
unterschiedlich große Bereiche: zwei für den Datentransport und einen zum
Telefonieren. "Asymmetric" deshalb, weil Hin- und Rückkanal jeweils
unterschiedlich große Datenmengen transportieren können:
Beim Surfen im Internet müssen typischerweise nur geringe Informationsmengen
(meist Adressen von Webseiten) an den Provider übermittelt werden
("uploaden" / "Upstream"). Dies geschieht über den "kleineren" Rückkanal mit
einer Geschwindigkeit von bis zu 768 Kilobit.
Die multimedialen Inhalte mit Bildern, Animationen und sonstigen
"Datenfressern" fließen mit hoher Geschwindigkeit (bis zu 9 Megabit) durch
den "größeren" Hinkanal ins Haus ("downloaden" / "Downstream").
4.3 Computernetzwerke
Je nach Ausdehnung kann man folgende Netzwerktypen unterscheiden:
4.3.1 Lokale Netzwerke (=Local Area Network, LAN)
Netzwerk innerhalb eines Grundstücks (Raum, Gebäude). Zur genauen
Funktionsweise eines LAN siehe Kapitel 14.
4.3.2 Intranet
Firmeninternes Netzwerk, das Internet-Technologie verwendet.
4.3.3 Stadtnetze (Metropolitan Area Network, MAN)
Früher gebräuchlicher Begriff für Netze innerhalb großer Ballungsgebiete,
wie Städten.
4.3.4 Landesnetze (Wide Area Network, WAN)
Verbinden Rechner innerhalb eines Landes.
4.3.5 Weltweite Netzwerke (Global Area Network, GAN)
Ein globales Netzwerk, das über Satellit aufgebaut wird.
4.4 Allgemeines zum Internet
Häufig als "Information-Highway" bezeichnet. Das Internet kann über
zahlreiche Provider und Online-Dienste (siehe 4.5) erreicht werden. Laut
einer Anfang 2000 durchgeführten Studie ist das Internet (genau: das WWW)
bereits auf über eine Milliarde Seiten angewachsen!
Die Ursprünge des Internet finden sich im Jahr 1958 im amerikanischen
Militär. Es wurde dann zu einem Forschungsnetz erweitert, das Universitäten
und andere Forschungseinrichtungen der westlichen Welt umspannte. Heute sind
alle wichtigen Firmen und Privatpersonen im Internet vertreten, und mit
Newsgroups und E-Mail wurde das Internet um wichtige Bereiche erweitert.
Jeder direkt ans Internet angeschlossene Rechner erhält zur Identifikation
eine sogenannte IP-Adresse, (Vier Zahlen zwischen 0 und 255 getrennt durch
Punkte, z.B. 153.100.94.2), zur Kennzeichnung des Netzes, des Unternetzes
und des Rechners selbst. Da diese Nummern schwer merkbar sind, können statt
dessen auch Namen verwendet werden. Diese werden vom Domain Name Service
(DNS) verwaltet. Man kann also z.B. statt vier kryptischer Zahlen auch
einfach "microsoft.com" eingeben, um den Internet-Server von Microsoft zu
erreichen.
Vorangestellt wird diesem Namen noch "ftp://ftp." oder "http://www." je
nachdem, ob man Dateien übertragen (siehe 4.6.3) oder das World Wide Web
(siehe 4.6.5) benutzen will.
(Bsp.: ftp.crosswinds.net oder www.crosswinds.net)
Die Endungen der Internet-Adresse stehen für die Organisation der Daten,
z.B.:
ac academic (Universitäten, Hochschulen)
com company (Firmen)
edu educational (Schulen)
gov government (Regierung)
net private Seite
org organization (Vereine)
Nicht-amerikanische Internet-Adressen enden mit einer Landeskennung, z.B.:
at Österreich (Austria)
au Australien
de Deutschland
fr Frankreich
jp Japan
Beispielsweise ist "http://www.uni-linz.ac.at" die Internet-Adresse der
Universität Linz und http://www.marcelwidi.com die Adresse des Autors
(sollte eigentlich www.marcelwidi.net heißen...)
4.5 Grundbegriffe
4.5.1 Internet-(Service)-Provider (ISP)
Das sind Firmen oder Institutionen, die Teilnetze des Internet betreiben.
Das INTERNET besteht also aus den Netzen der einzelnen ISPs. Der Provider
bietet dem Kunden vor Ort einen Einwahlknoten (= Point of Presence, POP) ins
Internet an. Die Kunden werden z.B. über Modem (s. 12.4) an das LAN des
Providers angeschlossen. Dadurch zahlt der Kunde nur die Telefongebühr bis
zum Provider (in Österreich etwa öS 11,- pro Stunde abends und an
Wochenenden - bzw. öS 35,- pro Stunde sonst), und muss etwa bei
Internet-Kontakten nach Übersee kein Vermögen zahlen.
Der Provider bietet zumeist die Dienste E-Mail (siehe 4.6.1) und Newsgroups
(siehe 4.6.2) oder auch die Erstellung einer Homepage (siehe 4.6.5) an,
mitunter gegen Aufpreis.
4.5.2 Online-Dienste
(Auch Content-Provider genannt). Diese bieten im Gegensatz zu "gewöhnlichen
Providern auch Inhalte an. Deren Einstiegsseite ist nach Themen geordnet
und bietet alles mögliche - von E-Mail über Shopping, Suchprogramme und
Chats (Unterhaltung online) bis hin zu Nachrichten.
Online-Dienste sind häufig überregional (weltweit) tätig und haben regionale
Niederlassungen.
Bekannte Beispiele sind America Online (AOL), T-Online und Microsoft Network
(MSN) weltweit sowie A-Online (AON) oder Magnet in Österreich.
4.5.3 Proxy-Server
Ein Proxy-Server ist ein Rechner, der von einem Internet-Provider betrieben
wird und der die Internet-Seiten, die von den WWW-Nutzern häufig abgefragt
werden, zwischenspeichert. Wenn ein WWW-Surfer eine Webseite anwählt, prüft
der Proxy-Server, ob die Daten bereits beim Provider vorhanden sind. Ist
dies der Fall, bekommen der Surfer nur eine "Kopie", die schneller
übertragen wird als das "Original". Sind die Daten noch nicht vorhanden,
verbindet der Proxy-Server den Surfer weiter zu der gewünschten Adresse.
4.5.4 Firewall
Technik in Form von Hard- und/oder Software, die den Datenfluss zwischen
einem privaten und einem ungeschützten Netzwerk kontrolliert bzw. ein
internes Netz vor Angriffen aus dem Internet schützt. Dazu vergleicht die
Firewall die IP-Adresse des Rechners, von dem ein empfangenes Datenpaket
stammt, mit einer Liste erlaubter Sender - nur deren Daten dürfen passieren.
Unterschied zu einem Proxy: Bei einem Firewall handelt es sich um ein ganzes
Bündel von Maßnahmen und Techniken. Ein Proxy selbst ist noch keine
Firewall, er kann aber Bestandteil einer Firewall sein.
4.5.5 Webbrowser
Webbrowser bedeutet übersetzt "Netz-Schmökerer". Es handelt sich dabei um
spezielle Programme mit deren Hilfe Informationen aus Servern abgerufen
werden können.
Bekannteste Beispiele (und mit über 99% praktisch die einzigen verwendeten)
sind der Internet Explorer (aktuelle Version 5) von Microsoft (von ca. 75%
der Internetnutzer verwendet )und der von Leistungsumfang her gleichwertige
Navigator von Netscape (ca. 24%).
Browser erlauben viel mehr als nur Internet-Surfen. Man kann damit auch
Newsgroups lesen/beschicken (s. 4.6.2), E-Mail senden/empfangen, FTP (siehe
4.6.3) nutzen und vieles mehr.
Neben Text beherrschen moderne Browser - z.T. mit Hilfe sogenannter PlugIns,
AddOns oder Viewern - auch die Anzeige von Graphiken, Videoclips und
weiteren Datenformaten.
4.5.6 HTTP
(Hypertext Transfer Protocol) - beschreibt/regelt den Austausch von Daten
zwischen Internetserver und Webbrowser. Alle Internetadressen beginnen mit
"http://"
Das HTTP-Protokoll stellt die oberste von mehreren Protokoll-"Schichten" zur
Verwaltung des Internet dar:
Das sogenannte Internet Protocol (IP) ist die Grundlage dar, die das
Internet definiert;
Das sogenannte Transport Control Protocol (TCP) fungiert als Zwischenschicht
und richtet die Verbindungswege zur Datenübertragung ein;
Das HTTP-Protokoll teilt in der obersten Schicht die Daten in einzelne
Pakete auf und legt fest, wie diese verschickt werden sollen.
4.5.7 HTML
(Hypertext Markup Language) Standardisierte Seitenbeschreibungssprache für
WWW-Seiten (siehe 4.6.5) im Internet bzw. Intranet. Sie definiert sowohl die
Gestaltung, den Inhalt und die Grafik der Seite als auch die Links
(Hyperlinks, Verbindungen) zu eigenen oder fremden Seiten. Die Seiten werden
dabei nur strukturiert, der endgültige Aufbau (Einbinden von Grafiken, Wahl
der Schriftart,...) erfolgt erst im Rechner des Anwenders. Dies spart
Speicherplatz und damit Übertragungszeit.
HTML-Dokumente können mit jedem Texteditor erstellt werden, da sie aus
reinem ASCII-Text bestehen. Spezielle HTML-Editoren (z.B. MS FrontPage 2000)
erleichtern allerdings das Erstellen der Dokumente erheblich. (Keine
HTML-Kenntnisse mehr erforderlich, Word-ähnliche Benutzeroberfläche).
Außerdem gibt es für viele Textverarbeitungsprogramme (z.B. MS Word seit der
Version 97) Add-Ons, die das HTML-Format mehr oder weniger begrenzt
unterstützen.
4.5.8 Java und ActiveX
Java ist eine von der Firma SUN entwickelte Programmiersprache für
Dokumente, die dem Entwickler erlaubt, WWW-Seiten mit verschiedenen, auch
interaktiven Spezialeffekten auszustatten. (Bewegte Grafiken, ausfüllbare
Formulare,...) Zur Ausführung von Java-Programmen wird eine "Java Virtual
Machine" benötigt. Diese ist heute in den verbreiteten Browsern eingebaut.
Damit lassen sich Java-Programme auf nahezu jedem Computer, unabhängig von
dessen Hardware oder Betriebssystem ausführen (im Prinzip auch auf
Haushaltsgeräten - für diese wurde Java ursprünglich entwickelt). -
Microsoft entwickelte schließlich ActiveX als Konkurrenz zu Java.
4.5.9 Spam
(von engl. spam = Frühstücksfleisch); In Anlehnung an einen Monty Python
Sketch, in dem in jedem Nahrungsmittel spam enthalten ist, wurde die
Bezeichnung für die unerwünschte Werbung im Internet gewählt.
Spam tritt vorwiegend als unerwünschte E-Mail auf und verursacht dort
jährlich Milliarden-Dollar-Schäden weltweit (Verlust an Arbeitszeit). Auch
in den Newsgroups (s. 4.6.2) ist Spam weit verbreitet.
Gegen Spam gibt es leider keinen wirklich wirksamen Schutz und auch kein
wirksames Gesetz.
4.6 Dienste des Internet
4.6.1 E-Mail
...ist der Postdienst, der über einen Internet-Anschluss zur
Nachrichtenübermittlung dient. Mit entsprechender Software kann eine
Nachricht erstellt, geschickt, empfangen, angeschaut, ausgedruckt,
zurückgeschickt, an mehrere Teilnehmer gleichzeitig geschickt, wiederholt
oder kommentiert werden. Der Nachricht kann auch eine Datei angehängt
werden. (Anlage / Attachment)
Zur Identifikation erhält jeder Teilnehmer eine E-Mail-Adresse. Diese ist
beim Provider zumeist gratis erhältlich. Die Adresse besteht aus einer
benutzerspezifischen Kennung (z.B. mausi) und dem Namen des Anbieters (z.B.
aon.at) getrennt durch ein "@" - in diesem Fall ma...@aon.at.
Manche Server wie z.B. Microsofts Hotmail (www.hotmail.de) bieten gratis
E-Mail Adressen über das WWW für jedermann an, mit dem großen Vorteil seine
Mail weltweit lesen zu können. (Notwendig ist nur mehr ein Internetzugang.)
Zum E-Mail empfangen/senden ist keine eigene Software erforderlich, es
genügt ein Webbrowser (siehe 4.5.5) wie Netscape Navigator oder Internet
Explorer. Spezielle Mail-Programme wie MS Outlook bieten allerdings
zusätzliche Funktionen, wie Terminplaner und Adressverwaltung.
Vorteile: Nahezu verzögerungsfreier Versand von Daten (Text, Bilder,
Programme) in alle Welt, kein Porto notwendig.
Nachteile: "Hardware" - also Kühlschränke, Blumen, Torten... (noch) nicht
digital versendbar - wir warten auf Star Trek...
4.6.2 Newsgroups
Auch Usenet genannt. Die Newsgroups sind ein Diskussionsforum, geordnet nach
Themen (Anfang 2000 bereits über 30.000), wo jedermann Beiträge ähnlich wie
bei E-Mail einsenden kann, die dann in einer Liste aufscheinen und von jedem
gelesen und beantwortet werden können. (Also eine Art übersichtliches
internationales "schwarzes Brett") Voraussetzung ist ein Webbrowser
(Netscape oder Internet Explorer) oder ein spezieller "Newsreader" (Programm
zum News lesen)
Die Diskussionsthemen sind nahezu unbegrenzt, sie reichen von der
Besprechung von Computerthemen über Fanclubs und Politik bis zu weniger
seriösen Themengruppen, wo teilweise auch gesetzwidrige Inhalte (Raubkopien
von Software, Nazipropaganda, Kinderpornographie,...) veröffentlicht werden.
Ein weiterer Minuspunkt ist die Überschwemmung der Newsgroups mit Spam. -
Man sollte beim "Posten" (Senden von Nachrichten an Newsgroups) nie seine
wahre E-Mail Adresse angeben, da diese Adressen von Suchrobotern gesammelt
und archiviert werden - mit dem Ziel, diese mit Spam zu beschicken.
Eine Abhilfe gegen zweifelhafte Inhalte stellen sogenannte "moderierte
Newsgroups dar - dies sind Foren, in denen nur "kontrollierte" Beiträge
veröffentlicht werden.
Am besten benützt man die Newsgroups über eine Suchmaschine wie etwa
www.deja.com. Diese ermöglicht effizientes Finden von Information ohne Spam
und Anzeigen aller je eingesandten Beiträge (ausgenommen binäre Dateien wie
Bilder oder Programme).
4.6.3 FTP (File Transfer Protocol)
Möchte man nicht nur Nachrichten, sondern auch Daten über das Internet
austauschen, ist das Datenübertragungsprotokoll FTP die beste Wahl. Zwar
kann man auch mit Hilfe eines Webbrowsers Daten "herunterladen", doch wird
dies von FTP sehr erleichtert, man hat dann alle Möglichkeiten, wie man sie
beispielsweise vom Windows-Explorer kennt. (In einem FTP-Server sind die
Dateien nach Verzeichnissen wie auf einer Festplatte geordnet).
Zum Bearbeiten von Daten über FTP gibt es eigene Software, wie z.B. WS-FTP.
Freilich erlaubt nicht jeder Server jedem das "Downloaden" aller Daten. Man
muss sich zumeist mit einem Namen und Kennwort identifizieren. (In der Regel
reicht eine E-Mail Adresse als Passwort und der Name "guest" oder "anonymous
")
4.6.4 Suchdienste
- Suchmaschinen (spezielle Internetseiten zum Auffinden anderer Seiten wie
etwa www.alltheweb.com, www.altavista.com, www.webcrawler.com,
www.hotbot.com, www.yahoo.de, ...)
- Metasuchmaschinen (durchsuchen mehrere Suchmaschinen auf einmal, z.B.
Metacrawler oder Profusion); bieten die besten Chancen im Internet etwas zu
finden)
4.6.5 Das World Wide Web (WWW)
Das WWW ist der meistgenutzte Dienst des Internet. Die Medien setzen die
beiden Begriffe fälschlicherweise überhaupt gleich.
Unter dem WWW versteht man Dokumente, die neben Texten und Grafiken auch
Ton- und Bildsequenzen sowie kleine Programme (Java-Applets, ActiveX)
enthalten können. Der wichtigste Inhalt sind allerdings die sogenannten
Hyperlinks - moderne Querverweise - Dies sind (zumeist) farbig
hervorgehobene und unterstrichene Schlüsselworte, -sätze oder sogar Bilder,
die auf andere Internetseiten, Dateien oder auch auf E-Mail-Adressen
verweisen. Ist beispielsweise in einem Dokument ein Artikel zitiert, könnte
man diesen durch Anklicken mit der Maus aufrufen und lesen. Dieser Artikel
kann wiederum weitere Verweise auf weitere verwandte Themen enthalten, so
dass man sich - wenn man ein interessantes Thema gefunden hat, durch
ständiges Klicken auf (Hyper)links auf einer Welle von Informationen
fortbewegt. Daher auch der Ausdruck "Surfen" für das Durchforsten des
Internet.
Unter "Offline-Surfen" versteht man das Betrachten von Seiten ohne
bestehende Internet-Verbindung, die zuvor (z.B. über Nacht zum billigeren
Tarif) vom Internet geladen wurden oder sich auf CD-ROMs befinden, die
häufig Computerzeitschriften beiliegen.
Freilich verweisen Hyperlinks nicht nur auf Dokumente, die auf ein und dem
selben Rechner liegen, sondern unter Umständen auch auf einen Rechner am
anderen Ende der Welt. Zum Beispiel könnte man den Link "Lemuren in
Madagaskar" auf einer Japanischen Seite über bedrohte Primaten anklicken,
mit einem Mausklick E-Mail an den Präsidenten von Australien schicken oder
sich dieses Skriptum aus dem Web "downloaden".
Internet-Adressen, die einem Link entsprechen, nennt man URLs (Uniform
Resource Locators) und verweisen in der Regel auf eine Datei eines Servers
im WWW. Beim erstmaligen Einsteigen in das Internet muss man ein paar
solcher Adressen kennen (zum Beispiel "http://www.shareware.com", eine
Adresse zum Auffinden preisgünstiger Software.) - in weiterer Folge klickt
man sich aber - ohne die URLs bewusst zu verwenden - einfach durch das
weltweite multimediale Informations-angebot. (Ein Klick auf einen Hyperlink
entspricht ja eben dem Aufruf eines URL).
Die Startseite eines Internetservers nennt man auch Homepage.
So wie man etwa bei Hotmail eine gebührenfreie E-Mail-Adresse bekommen kann,
bietet z.B. Crosswinds (www.crosswinds.net) gratis, unlimitiert und
werbefrei (!) Raum für eigene Homepages.
Unter Cookies versteht man kleine Informationseinheiten, die von einem
Webbrowser erstellt werden und Informationen über das Surfverhalten eines
Benutzers auf seinem Rechner abspeichern. Eigentlich gedacht zur
Erleichterung des Surfens (Zwischenspeichern von Informationen) wird heute
auch Missbrauch damit getrieben (Erstellung von Benutzerprofilen - Big
Brother is Watching You).
4.6.6 Internet-Telefonie
Telefonieren über das Internet, eventuell mit Bildübertragung mittels einer
"Web-Cam".
Vorteile: Nur der günstige Internettarif ist zu zahlen, auch wenn der
Empfänger weit entfernt wohnt, Videokonferenzen mit mehreren Teilnehmern
möglich.
Nachteile: umständlicher Verbindungsaufbau, (noch) schlechte Bild- und
Tonqualität, Empfänger muss zum Zeitpunkt des Anrufs online sein.
5 Aufbau und Arbeitsweise eines Computers
5.1 Bestandteile eines PC
- CPU (Central Processing Unit, Mikroprozessor) rechnet und steuert alle
Operationen
- Taktgeber verbindet CPU mit Quarzkristall (siehe 5.2.4)
- I/O-Elemente (Ein-/Ausgabeelemente) - zur Umwandlung eingehender Signale
(z.B. Tasten-druck, Mausklick) in Binärsprache und umgekehrt (z.B.
Bildschirmausgabe, Ausdruck)
- RAM (Random Access Memory, Arbeitsspeicher) enthält derzeit bearbeitete
Daten, ist flüchtig (wird nach Ausschalten des PC gelöscht)
- ROM (Read Only Memory, Festwertspeicher), nicht löschbar, dauerhaft,
enthält für Rechnerstart wichtige Daten
- Grafikkarte Sorgt für die Darstellung von Daten am Bildschirm.
- Motherboard (Systemplatine - siehe Abbildung rechts) mit CPU, Steckplätzen
für Karten, Taktgeber, I/O-Elementen, RAM, ROM
- Externe Speicher Festplatte, Disketten-Laufwerk, CD-ROM-Laufwerk,
DVD-Laufwerk, ZIP-Laufwerk...
- Bus Gesamtheit aller Leitungen, die die einzelnen Komponenten des PC
miteinander verbinden, sorgt für Daten- und Befehlstransport
- Netzteil sorgt für Stromversor-gung
- Schnittstellen (Stecker) für Ein- und Ausgabegeräte (Monitor, Maus,
Drucker, Tastatur,...)
- Diverse Kabel, Schalter, Lämpchen
- Gehäuse (Tower, Desktop-Gehäuse, ...)
5.2 Arbeitsweise eines PC
moderne Computer arbeiten im wesentlichen durch das Zusammenspiel zwischen:
- Steuerwerk
- Rechenwerk
- Arbeitsspeicher
- Ein-/Ausgabesteuerung
5.2.1 Der Mikroprozessor (CPU, Central Processing Unit)
Die CPU besteht im wesentlichen aus einem kleinen Siliziumplättchen (Chip)
mit Millionen von elektronischen Bauteilen (hauptsächlich Transistoren) und
enthält Steuer- u. Rechenwerk
Rechenwerk führt arithmetische (+) und logische (und, oder, nicht)
Operationen durch - die Daten (Operanden) werden in sogenannten Registern
(sehr schneller Speicher) abgelegt
Steuerwerk koordiniert das Zusammenspiel von Rechenwerk und Arbeitsspeicher;
Befehlsregister (ebenfalls schneller Speicher) enthält eingelesene
Programmbefehle; werden interpretiert und an Rechenwerk bzw. Arbeitsspeicher
weitergegeben.
Arbeitsspeicher dient zur Ablage von Daten und Programmbefehlen;
Speicherbereiche werden mit Adressen nummeriert; man unterscheidet zwischen
flüchtigem (RAM) und nicht-flüchtigem Speicher (ROM) - vgl. Kapitel 8.
5.2.2 Das Bussystem
Gruppe von Leitungen, die alle Teile des Computers verbindet; sorgt für
Verständigung zwischen diesen Systemen.
Man unterscheidet in:
Der Datenbus regelt die Datenübertragung (Datenwortbreite derzeit 8, 16, 32
oder 64 Bit).
Der Adressbus steuert die Auswahl der Einzelgeräte und Adressierung
innerhalb der Geräte.
Der Steuerbus regelt die Busanforderung, Arbitrierung (bestimmt, welche
Hardware den Bus nutzen darf), Interrupts (Mitteilung an den Prozessor) und
Handshaking (Kommunikationsprotokoll).
Der Versorgungsbus schließlich regelt die Stromversorgung und die
Taktleitungen. Bei seriellen Bussystemen gibt es nur eine Leitung als
Busstruktur.
Außerdem unterscheidet man zwischen unidirektionalen und bidirektionalen
Leitungssystemen.
5.2.3 Die Ein-/Ausgabesteuerung
Regelt Verbindung zwischen Rechner und Benutzer über Kontaktstellen wie
Tastatur, Maus und Monitor.
5.2.4 Der Taktgeber
Verbindet die CPU mit einem Quarzkristall; dieser Kristall wird durch Strom
zum Schwingen gebracht, die einzelnen Schwingungen sorgen für einen
periodischen Takt, den Grundtakt der CPU; ohne einen bestimmten Takt ist
keine ordnungsgemäße Informationsverarbeitung möglich.
Üblich sind heute schon Taktfrequenzen von mehr als 800 Millionen
Schwingungen pro Sekunde. (= 800 Mio. Hertz ? 800 MHz).
Zur Taktfrequenz siehe auch 6.2.3.
Folgende Abbildung veranschaulicht das Zusammenspiel der einzelnen
PC-Komponenten.
(Für eine genauere Beschreibung der einzelnen PC-Komponenten siehe die
folgenden Kapitel)
6 PC-Prozessoren
Aufgrund der rasenden Entwicklung am Prozessorsektor muss erwähnt werden,
dass besonders die in diesem Kapitel vorgestellten Fakten sehr schnell
überholt sein werden. So verdoppelt sich etwa im Schnitt alle 18 Monate die
Rechengeschwindigkeit der Prozessoren ("Moore's Law"). Die vorliegenden
Daten beruhen auf dem Stand von Februar 2000.
Aufgrund ihrer weiten Verbreitung beschränken wir uns hier im wesentlichen
auf Prozessoren der Firmen INTEL und AMD.
6.1 Grundbegriffe zur CPU
6.1.1 Cache-Speicher
Ein schneller Pufferbereich, der Daten zwischenspeichert und diese immer
wieder sehr schnell zur Verfügung stellen kann. Es gibt mehrere Cache-Arten:
Solche, die Daten aus dem RAM in CPU-Nähe puffern (Hardwarecache).
Solche, die Daten von der Festplatte im RAM zwischenlagern (z.B. Smartdrive)
(Softwarecache, also Programme - dieser Cache-Typ gehört also nicht in
dieses Kapitel.)
Typen von Hardwarecache:
L1-Cache (First-Level Cache)
Befindet sich auf dem Chip des Prozessors. Ein kleiner (weniger als 1MB),
dafür sehr schneller Speicher, der die am häufigsten genutzten Befehle für
den Prozessor bereithält.
L2-Cache (Second-Level Cache)
Deutlich schnellere Speicherbausteine, extrem teuer - zweiter
Zwischenspeicher zwischen Prozessor und Arbeitsspeicher.
L3-Cache
Erstmals im AMD K6-III Prozessor (siehe 6.4.1) enthalten; zusätzlicher
Zwischenspeicher für noch mehr Geschwindigkeit.
6.1.2 Front Side Bus (FSB)
INTELs Bezeichnung für den Systembus, der die CPU mit dem Hauptspeicher
verbindet. 133 MHz FSB bedeutet etwa, dass nicht der Rechner, sondern der
Prozessorbus mit 133 MHz getaktet ist, wie es bei modernen Prozessoren (z.B.
Pentium III) üblich ist.
6.1.3 CISC und RISC
CISC (Complex Instruction Set Computing, komplexer Befehlssatz)
Üblich bei älteren Computern. Prozessor beherrscht viele Operationen, ist
dadurch aber auch teurer und langsamer.
RISC (Reduced Instruction Set Computing, reduzierter Befehlssatz)
Idee: Nur etwa 20% der Prozessorbefehle werden häufig gebraucht, man lässt
die anderen einfach weg. Effekt: Weniger Transistoren werden gebraucht,
einfachere Befehle werden schneller verarbeitet, Prozessoren werden
billiger.
Weiterer Vorteil: Mehrere interne Bussysteme und voneinander unabhängige
Verarbeitungseinheiten, dadurch ist Parallelverarbeitung teilweise möglich.
6.2 Leistungsmerkmale von PCs
6.2.1 Länge des Maschinenwortes
Diese gibt an, wie viele Bytes ein Prozessor "gleichzeitig" bearbeiten kann.
(D.h. immer ein Vielfaches von 8 Bit). Verbreitet sind heute 32 und 64
Bit-Prozessoren.
6.2.2 Die Breite des Bussystems
Gibt die Leistungsfähigkeit von Adress- bzw. Datenbus an. Dazu zwei
Beispiele:
Ein Rechner mit einem 16-Bit Datenbus (z.B. Intel 8086) kann gleichzeitig 16
Stromimpulse (also 16 Bit-lange Zahlen oder 2 Zeichen) transportieren.
Ein Rechner mit einem 20-Bit Adressbus (ebenfalls Intel 8086) kann
gleichzeitig 220 Speicherzellen zu je einem Byte (und damit gleich 1 MB an
Daten) ansprechen.
Daher ist es wichtig, dass die Bitzahl von Adress- u. Datenbus möglichst
hoch sind.
6.2.3 Der Prozessortakt
Wie schon erwähnt, sorgt ein schwingender Quarzkristall für den Grundtakt
des Prozessors. Je schneller er schwingt, desto kleiner ist die kleinste
Zeiteinheit des Prozessors und desto schneller rechnet also der Prozessor.
6.2.4 Der Systemtakt
Die externe Taktrate, auch "Systemtakt" genannt, besagt, mit welcher
Geschwindigkeit der Prozessor auf den L2-Cache und das RAM zugreift.
(Entspricht also dem Takt des FSB). Bei Pentium-III Rechnern ist der interne
Takt bis zu 8 mal so hoch wie der externe.
Beim Prozessorkauf sollte man unbedingt auch den Systemtakt berücksichtigen!
Ein PIII-667 mit 133 MHz Systemtakt ist einem PIII-700 mit nur 100 MHz
Systemtakt also vorzuziehen!
Den Quotienten aus Prozessortakt und Systemtakt bezeichnet man als
Multiplikator. Bei einem Pentium III-800EB Coppermine Prozessor (s. 6.3.4)
beträgt der Systemtakt 133 MHz, der Prozessortakt 800 MHz, der Multiplikator
ist also 6. Man kann den Multiplikator häufig manuell umstellen und dadurch
den Prozessortakt erhöhen - dies nennt man dann "Overclocking".
6.2.5 Weitere Leistungsmerkmale
- Wie groß/wie schnell ist der Arbeitsspeicher?
- Wie groß ist der Cache?
- Wie schnell ist die Festplatte? Wie schnell ist die Grafikkarte?
Wichtig ist auch, dass alle Komponenten aufeinander abgestimmt sind. Ein
neuer PC benötigt etwa eine schnellere Festplatte und mehr Speicher als ein
älterer. Auch sind für unterschiedliche Anwendungen auch unterschiedliche
Merkmale von größerer oder kleinerer Bedeutung.
6.3 Die INTEL-Prozessoren
6.3.1 Der Pentium Pro
1995 vorgestellt, heute nur mehr als Netzwerkserver verwendet.
Vorteile: Optimiert für 32-Bit Programme (z.B. Windows NT)
Nachteil: Bei 16-Bit Programmen sogar langsamer(!) als Pentium.
6.3.2 Der Pentium MMX
Dieser Prozessor war gedacht für den steigenden Einsatz von
Multimedia-Anwendungen. (MMX = Multimedia Extensions, Multimedia
Erweiterungen).
Vorteile: (u.a.) 57 neue Prozessor-Befehle für Multimedia-Anwendungen
Nachteile: Mathematischer Coprozessor langsam
Nicht MMX-optimierte Programme können MMX nicht nutzen
6.3.3 Der Pentium II ("Klamath" und "Deschutes")
Im Prinzip ein Pentium Pro mit zusätzlicher MMX Einheit und Taktraten bis
450 MHz.
Der Pentium II verwendet einen neuartigen Steckplatz für die CPU, den
sogenannten "Slot 1". Ein ziemlich großes Gehäuse beherbergt den Prozessor,
den Lüfter und den 512 KB L2-Cache, insgesamt 7,5 Millionen Transistoren.
Seit dem Pentium II mit 350 MHz trägt die Familie den Codenamen "Deschutes
(davor "Klamath"). Der Deschutes besitzt bereits einen Datenbus, der mit
100 MHz getaktet ist.
6.3.4 Der Pentium III ("Katmai", "Xeon", "Coppermine")
Neuester INTEL-Prozessor mit Slot 1 (s.o); vorgestellt wurde der Katmai
Anfang 1999, das neueste Modell heißt Coppermine. Die Unterschiede zum
Pentium II sind gering:
- ISSE (spezieller 3D-Befehlssatz, vergleichbar mit AMDs 3D Now! siehe
6.4.1)
- 32 KB L1-Cache
- L2-Cache mit halbem Prozessortakt
Taktraten: (Februar 2000): 450 - 800 MHz
Die neuen ISSE-Befehle:
Bei der neuen Befehlserweiterung namens ISSE (Internet Streaming SIMD
Extension) ergänzte Intel den Registersatz um 8 gänzlich neue Register, die
gleich 128 Bit breit sind. Diese sind aufgeteilt in 4 Fließkommaregister von
je 32 Bit Genauigkeit. Die neuen Befehle lassen sich u.a. gut für
3D-Transformationen benutzen. Zusätzlich zu den Befehlen, die sich auf die
neuen Register auswirken, besteht ISSE noch aus mehr: Es gibt einige
zusätzliche MMX-Befehle, die u.a. für MPEG-Codierung nützlich sind.
Besonders interessant sind die "Prefetchbefehle", mit denen man den
Prozessor anweisen kann, eine Speicherstelle im voraus anzufordern. Das ist
nützlich, da sich dann beim eigentlichen Ladebefehl der zu ladende Wert mit
hoher Wahrscheinlich schon im Cache befindet. Außerdem können
SIMD-Schreibbefehle am Cache vorbei direkt in den Hauptspeicher geleitet
werden.
Der Xeon-Prozessor:
Der Pentium III "Xeon" erlaubt die Verwendung von bis zu vier Prozessoren
gleichzeitig und wird vor allem in Netzwerk-Servern (s. Kapitel 14)
verwendet. Dieser Prozessor ist allerdings sehr teuer (schnellerer und
größerer L2-Cache).
Das neueste Modell (Stand Februar 2000):
Der Pentium III-EB "Coppermine" ist die neueste Version des Pentium III. Er
wird in 0.18 ? Technik gefertigt (d.h. der Abstand der Transistoren beträgt
0.18 Mikron), der FSB läuft mit bis zu 133 MHz, der L2-Cache wurde
vergrößert.
6.3.5 Die Celeron-Familie ("Covington" und "Mendocino")
Der zunehmende Druck der Konkurrenz (besonders AMD - s. 6.4) bewog INTEL
dazu, endlich leistungsfähige Prozessoren zu einem günstigen Preis
herzustellen. Diese wurden unter dem Nam,en Celeron auf den Markt geworfen
und sind in vergleichbaren Taktraten wie der PIII erhältlich.
Ein schneller Celeron ist heute vom Preis-/Leistungsverhältnis her die beste
CPU.
Den Anfang machte der (aufgrund des fehlenden L2-Caches erfolglose) Celeron
300 (Codename "Covington"). Mittlerweile sind aber mit dem Celeron 300A und
weiteren Modellen bis 500 MHz Celeron Prozessoren mit 128 KB L2-Cache
erhältlich (Codename "Mendocino"), die ein hervorragendes
Preis-Leistungsverhältnis bieten, und den "normalen" Pentium III-Rechnern
kaum nachstehen. (Lediglich kleinerer L2-Cache mit langsamerer Zugriffszeit)
Neue Celeron Prozessoren benötigen wieder einen neuen Steckplatz, den
sogenannten "Sockel 370", (der billiger zu produzieren ist als der Slot 1)
die älteren stecken im "Slot 1", wie der P II und der P III)
6.4 AMD
Texanische Firma, gegründet 1969, seit der Entwicklung des superschnellen
Athlon (s. unten) die Hauptkonkurrenz für INTEL, da AMD-Prozessoren zu INTEL
voll kompatibel sind.
6.4.1 Der K6-2
Nach dem eher erfolglosen K6 (1997) stellte AMD im Juni 1998 den K6-2 vor
und erregte damit großes Aufsehen. Der K6-2 enthält nicht nur die
MMX-Technologie, sondern verfügt als erster Prozessor überhaupt über einen
integrierten 3D-Befehlssatz, die sogenannte 3D Now!-Technologie, über die
sich vor allem Computerspieler freuen, da Spiele mit 3D-Grafik davon
profitieren können. Jedoch auch andere Programme (z.B.
Spracherkennungssoftware oder Filmabspielprogramme können 3D-Now nutzen.)
Voraussetzung ist allerdings - wie bei MMX - dass die Software die
zusätzlichen Befehle auch unterstützt.
1998 konnte AMD seinen Marktanteil mit 16% bereits mehr als verdoppeln,
nicht zuletzt aufgrund des besten Preis-Leistungs-Verhältnisses aller
Prozessoren.
Die Nachteil der K6-2 waren die schwache Leistung der eingebauten FPU (des
mathematischen Coprozessors) und die Tatsache, dass der L2-Cache nicht so
schnell ist wie beim Pentium II.
6.4.2 Der K6-III
Der nächsthöhere AMD-Prozessor ist der K6-III, der seit März 1999 mit 400
und 450 MHz verfügbar ist, und schneller läuft, als ein gleichgetakteter
INTEL-Prozessor (Grund dafür sind ein schnellerer L2-Cache und zusätzlicher
L3-Cache) und das zu einem niedrigeren Preis!
6.4.3 Der Athlon
Seit Juli 1999 verfügbar ist AMDs Athlon (früher bekannt als K-7), der das
Kunststück geschafft hat, als erster Prozessor - bei niedrigerem Preis als
ein gleichgetakteter INTEL Prozessor - sogar noch schneller zu sein. Der
Athlon nimmt derzeit die Spitzenposition am PC-Prozessorsektor ein. Der
Athlon ist Februar 2000 bereits mit 800 MHz lieferbar und die derzeit
schnellste INTEL-kompatible CPU.
Bereits seit Ende 1999 gibt es Athlon Versionen, die - aufgrund der
Verwendung eines speziellen Kühlkörpers - mit über 1GHz getaktet sind!
(Diese sind allerdings sehr teuer!)
Da AMD derzeit die schnellsten Prozessoren für PCs liefern kann, setzen
bereits vielen renommierte Firmen auf AMD statt auf INTEL. (Anfang Februar
sind Coppermine Prozessoren noch rar).
Besonderheiten: 3D Now!, 128 KB L1-Cache, L2-Cache mit vollem Prozessortakt.
6.5 Apple Computer
Apple Computer sind (und waren immer schon) von hoher Qualität, sehr
benutzerfreundlich, sehr beliebt und sehr leistungsfähig, allerdings nur
eine beschränkte Konkurrenz für INTEL, da sie nicht IBM-kompatibel sind. Es
ist nur ein beschränkter Datenaustausch möglich, was aufgrund der weiten
Verbreitung der IBM-kompatiblen ein Problem ist. Dennoch schwören viele
Benutzer auf Apple - die Verbreitung ist mit 3% dennoch vergleichsweise
gering.
Apple verwendet für seine Computer Prozessoren der Firma Motorola. Ein
aktuelles Modell ist die sogenannte PowerPC G4-CPU, die in Apples neuesten
Geräten Verwendung findet.
6.6 VIA
Taiwanesische Firma, die praktisch alle verbliebenen INTEL-Konkurrenten
aufkaufte.
7 Eine kurze Geschichte der Computers
500 v. Chr. erste Rechenmaschine: Abakus (China), wird teilweise heute noch
benutzt (in Asien).
17. Jhdt. Pascal, Schickard und Leibniz bauen die erste mechanische
Rechenmaschine.
1774 Die erste zuverlässig funktionierende Rechenmaschine wird von Philip
Hahn konstruiert.
1804 Jacquard konstruiert einen mechanischen Webstuhl, der mit Lochkarten
gesteuert wird.
1833 Charles Babbage definiert Aufteilung eines Prozessors in Steuer-,
Rechenwerk u. Speicher.
1941 Der erste elektrische Rechner ist der "ZUSE Z3" von Konrad Zuse, er
arbeitet programmgesteuert, nicht manuell und besitzt 2.000 Relais und
Speicher für 64 Zahlen.
1946 Erster elektronischer Rechner ENIAC, Elektronenröhren statt Relais,
2.000 mal schneller
1947 "von Neumann'sches Prinzip" (John v. Neumann) - Arbeiten mit Speicher
statt Lochkarten
1948 Erfindung des Transistors (viel kleiner als die Elektronenröhre, wird
nicht so heiß)
1955 TRADIC - erster volltransistorierter Computer
1958 Erfindung des IC (Integrated Circuit = integrierter Schaltkreis),
Bauteile auf engstem Raum.
1969 Die Fa. Busicom beauftragt INTEL, einen Chipsatz für eine
Rechenmaschine zu entwickeln.
1971 INTEL bringt den 4004 auf den Markt (Datenbreite von vier Bit, "erster
Computer auf einem einzigen Chip" (=Mikroprozessor), Taktfrequenz 108 kHz
(!) und 2.300 Transistoren.
1974 Der Nachfolger des 4004 ist der 8080. INTELs Rivale Motorola
präsentiert den 6808.
1975 Die Firma Advanced Micro Devices (AMD) stellt den 8080A vor. Zwei
ehemalige Intel-Mitarbeiter bringen den Z80 auf den Markt. Bill Gates und
Phil Allen gründen Microsoft
1976 Die Studenten Steve Jobs und Stephen Wozniak bauen in einer Garage den
ersten Apple PC.
1977 Apple bringt den legendären Apple II mit Motorola 6502-Prozessor auf
den Markt.
1978 Mit dem 8086, einem 16-Bit-Prozessor, beginnt die Erfolgsgeschichte von
INTELs 80x86-Familie. Alle INTEL-Prozessoren, die in den Folgejahren
entwickelt werden, sind abwärtskompatibel zum 8086. (Anfangs 29.000
Transistoren und eine Taktfrequenz von 4,77 MHz).
1979 Motorola bringt den 68000, einen 16-Bit-Prozessor mit 68.000
Transistoren, auf den Markt.
1981 Die Motorola-CPU 68000 ist leistungsfähiger als der Intel-Prozessor
8088, Motorola kann aber nicht liefern; deshalb beschließt IBM, seinen PC
mit INTELs 8088 auszustatten und gibt die IBM-PC-Architektur für den Nachbau
frei. Aufgrund der Erwartung, dass IBM künftig auch auf dem PC-Sektor das
Marktgeschehen bestimmen wird, entschließen sich zahlreiche Hersteller, ihre
PC-Modelle am IBM-Vorbild auszurichten. - Der IBM-kompatible Rechner (d.h.
Prozessor von INTEL und Betriebssystem von Microsoft) tritt seinen Siegeszug
an.
1982 Mit dem 80286 stellt Intel eine neue 16-Bit-CPU mit fast 130.000
Transistoren vor.
1984 Apple liefert den ersten Macintosh aus;
1985 Das 32-Bit-Zeitalter bricht mit INTELs 80386 (275.000 Transistoren,
Takt 20-33 MHz) an.
1986 Commodore bringt den Heimcomputer Amiga mit 68000er Prozessor auf den
Markt.
1987 IBM kündigt die PS/2-Reihe an.
1988 Cyrix wird gegründet. Das Unternehmen fertigt zunächst mathematische
Coprozessoren.
1989 INTELs 80486 mit erstmals integriertem mathematischen Coprozessor
erscheint.
1990 Mit der Entwicklung von HTML beginnt der Siegeszug des WWW
1991/92 Cyrix und AMD produzieren die ersten INTEL-kompatiblen Prozessoren
(Clones)
1992 Microsoft bringt Windows 3.1 heraus
1993 Der INTEL Pentium erscheint (der Name kann im Gegensatz zu "586
geschützt werden.) Er besitzt über 3,1 Millionen Transistoren, der Takt
liegt anfangs bei 60 oder 66 MHz und kann in einem Taktzyklus zwei Befehle
ausführen. ("superskalares Arbeiten")
1995 Windows 95 wird in nur drei Monaten 7 Millionen mal verkauft. Der
Pentium Pro erscheint.
1997 Der Pentium II wird vorgestellt.
1998 Ein Prototyp-Chip von IBM durchbricht als erster die 1 GHz Schallmauer
für Prozessoren.
1999 Der INTEL Pentium III und AMDs Athlon kommen auf den Markt
2000 Windows 2000 wird in vier Varianten präsentiert.
8 Interne Speicher
Werden in Halbleitertechnologie gefertigt, sehr schnelle Zugriffszeit (< 10
ns).
Es gibt sie in veränderbarer Form (RAM) und fester Form (ROM). Der Nachteil
der internen Speicher ist ihre begrenzte Kapazität (ein paar 100 MB RAM in
modernen PCs) und die Flüchtigkeit beim RAM. Abhilfe bieten externe Speicher
wie Festplatten oder CD-ROMs. (siehe Kapitel 9).
8.1 RAM (Arbeitsspeicher)
(= Random Access Memory) Nach Prozessortakt und Busbreite (siehe 6.2)
wichtigstes Kriterium für einen schnellen PC. Im RAM werden Programme oder
Programmteile während der Ausführung abgelegt, nachdem sie von Festplatte
oder CD geladen wurden. Da das RAM viel schneller arbeitet als externe
Speicher (siehe Kapitel 9), bringt mehr RAM auch mehr Leistung, da z.B. die
Festplattenzugriffe weniger werden. Zuwenig RAM kann sogar dazu führen, dass
manche Programme gar nicht mehr ausführbar sind. Durch Aufrüsten eines
langsamen PCs mit RAM (sehr einfache Prozedur) lässt sich also zumeist eine
Leistungssteigerung erreichen.
Moderne PCs (Pentium III, Windows 98) benötigen für ein vernünftiges
Arbeitstempo - je nach verwendeter Software - etwa 64-512 MB RAM - das
entspricht einer Steigerung um einen Faktor von etwa 10.000 gegenüber 1980
(!)
Das RAM ist flüchtig, (wird nach Ausschalten des PCs, bei einem Absturz oder
Stromausfall gelöscht (d.h. häufiges Abspeichern von Dokumenten ist wichtig,
um Datenverluste zu vermeiden.).
Man unterscheidet im wesentlichen zwei verschiedene Typen von RAM:
1. DRAM (Dynamisches RAM) Jedes Bit wird in einem Kondensator gespeichert,
d.h. der Speicher muss laufend (alle paar Millionstel Sekunden) aufgefrischt
werden.
Ältere PCs (bis 1997) verwenden noch die Variante EDO-RAM (Extended Data
Output RAM)
Pentium II Prozessoren verlangen bereits SDRAM (Synchronous DRAM). Ganz neu
sind die sehr schnellen DDR-SDRAM (Double Date Rate SDRAM), RDRAM
(Rambus-DRAM) und VCM (Virtual Channel Memory).
2. SRAM (Statisches RAM) wird z.B. in Cache-Speichern verwendet (vgl. 6.1);
Bits werden durch "Kippschalter" gespeichert, Zustand bleibt solange
erhalten, bis er erneuert wird.
Eine weitere Unterscheidung liegt in der Bauweise der RAM-Chips. Hier gibt
es SIMMs (Single Inline Memory Module), die bis vor 1998 noch Standard waren
und DIMMs (Dual Inline Memory Module), Steckmodule für Pentium III-Rechner
mit SDRAM - der heutige Standard für PCs.
8.2 ROM (Festwertspeicher)
(= Read Only Memory); im Gegensatz zum RAM i.A. nicht veränderbar, nicht
flüchtig und viel kleiner, um den PC so flexibel wie möglich zu halten. Das
ROM enthält Programme, die durch das Einschalten des Rechners aktiviert
werden. (z.B. BIOS, siehe 10.3) Durch das ROM weiß der Rechner erst, was er
nach dem Einschalten überhaupt tun soll. (Etwa: Starten von Windows).
Es gibt spezielle ROM-Versionen, die sehr wohl veränderbar sind:
? PROM (Programable ROM) nur einmal mit speziellen Geräten programmierbar
? EPROM (Erasable PROM) mehrmals - allerdings nicht leicht - beschreibbar
? EEPROM (Electrically EPROM) durch Software löschbares ROM - wird etwa in
programmierbaren Joysticks benutzt
? Flash-Memory Speicher im Steckkarten-Format (PC-Format, früher:
PCMCIA-Format) Wird in tragbaren PCs (geringerer Stromverbrauch als
Festplatten, stoßunempfindlich) oder digitalen Kameras (bis 100 MB, dadurch
Platz für genug Fotos) benutzt. Es ist allerdings viel teurer als normales
RAM.
9 Externe Speicher
Der Name kommt daher, dass diese Speichermedien früher alle zu Peripherie
gehörten.
Da das ROM nicht veränderbar und viel zu klein und das RAM flüchtig ist,
benötigt man zusätzliche veränderbare große externe Datenspeicher. Bei
diesen unterscheidet man zwischen magnetischen und optischen Speichern. Ein
solcher externer Speicher besteht im wesentlichen aus drei Komponenten:
? Der Datenträger selbst, der die Daten speichert
- auswechselbar, wie bei Disketten oder CD
- fest eingebaut, wie bei Festplatten
? Das Schreib-/Lese-Gerät, das die Daten vom Datenträger liest bzw. darauf
abspeichert
? Der Controller (s.u.)
9.1 Controller
Steckkarten oder Teile des Motherboard, die den Betrieb von
Diskettenlaufwerken, Festplatten, CD-Laufwerken, etc. steuern - besonders
für Festplatten sehr wichtig, da vom Controller die Zugriffszeit und die
Datentransferrate (Datenübertragungszeit) (siehe 9.2.2) abhängen.
Man unterscheidet heute im wesentlichen folgende Typen von Controllern:
9.1.1 EIDE (Enhanced Integrated Drive Electronics)
E-IDE ist eine den alten IDE-Standard erweiternde abwärtskompatible
Schnittstelle für externe Speicher (Festplatte, CD, DVD,...)
Datentransferraten bis 66 MB/s sind möglich.
Mehr als 80 Prozent aller verkauften PC-Systeme wurden 1999 mit
E-IDE-Festplatten ausgeliefert. Obwohl SCSI-Systeme (s.u.) technologisch
gesehen der E-IDE-Konkurrenz überlegen sind, hat der E-IDE-Standard im Home-
und Office-Bereich immer noch die Nase vorn, denn:
- E-IDE-Festplatten benötigen keine kostspieligen Controller-Karten, da alle
modernen Mainboards mit einer Onboard-Schnittstelle (eingebauter Controller)
ausgestattet sind.
- In den meisten PCs sind nur eine Festplatte und ein CD-ROM-Laufwerk
eingebaut, und dafür reicht das einfache E-IDE-Übertragungsprotokoll in der
Regel vollkommen aus.
Der größte Nachteil von IDE bzw. E-IDE ist die Begrenzung der Anzahl an
Peripheriegeräten auf maximal zwei pro Kanal - beim Aufrüsten des PCs mit
zusätzlichen IDE-Komponenten wird diese Grenze schnell erreicht.
9.1.2 Ultra-DMA
Neueste Form des EIDE-Standards. Dieser Modus ermöglicht es der Festplatte,
über den Controller ohne eine Beteiligung des Prozessors direkt in den
Arbeitsspeicher zu schreiben. Es gibt derzeit zwei Standards - nämlich
Ultra-DMA/33 und Ultra-DMA/66, die maximal eine Datentransferrate von 33
beziehungsweise von 66 MB/s erreichen.
9.1.3 SCSI (Small Computer System Interface)
(Die korrekte Aussprache der Abkürzung ist "Skassy" und nicht "es-ce-es-i
"!!!)
Standard für Schnittstellen und Bussysteme mit hohen Übertragungsraten. Die
Peripheriegeräte, die diesen Standard unterstützen, können an einer einzigen
Erweiterungskarte angeschlossen werden und benötigen auch nur einen Treiber
(den sogenannten "aspi"-Treiber). SCSI-Bussysteme gibt es für verschiedene
Busbreiten und -typen.
Es existieren zahllose verschieden SCSI-Standards, die sich im wesentlichen
durch die Geschwindigkeit unterscheiden - um nur ein paar zu nennen:
SCSI 1, Fast, Fast Wide, Ultra, Fast/Wide SCSI (SCSI 2), Ultra-Wide SCSI
(UW-SCSI, SCSI 3) und Ultra-2-Wide SCSI (U2W-SCSI, LVD), etc.
9.1.4 RAID (Redundant Array of Inexpensive Disks)
Dienen der Sicherheit von Festplatten-Daten. Ein RAID-System ist in der
Lage, Daten redundant zu speichern, also auf mindestens einer weiteren
Festplatte nochmals abzulegen - d.h. vorhandene Daten werden automatisch
gespiegelt (kopiert). RAID-Systeme setzen sich demzufolge immer aus mehreren
Festplatten zusammen.
Da inzwischen Festplatten nicht mehr all zu teuer sind, werden RAID-Systeme
vermehrt auch eingesetzt, um einfach nur große Datenmengen speichern zu
können. Im RAID System ist dazu ein Festplatten-Controller notwendig, der
über integrierte Management-Funktionen verfügt. Dazu kommen ein Netzteil,
das genügend Strom zur Verfügung stellt, sowie eine Software, die es
erlaubt, das RAID-System möglichst flexibel zu verwalten. Für die
Anwendungen und für angeschlossene Rechner stellt sich das Array (die
Batterie einzelner Festplatten) als eine große Festplatte dar; die
Daten-Verwaltung - welche Daten werden wo abgelegt? - wird vom System selbst
übernommen.
Ein Merkmal moderner RAID-Systeme besteht - neben der Sicherheit - zudem
darin, dass defekte Platten im laufenden Betrieb ausgetauscht werden können,
so dass außer den Netzwerkadministratoren üblicherweise niemand etwas von
einem Ausfall merkt.
9.2 Magnetische Speicher
9.2.1 Disketten (Floppy-Disk)
Runde flexible Kunststoffplatte, versehen mit einer dünnen magnetisierbaren
Schicht, wie bei einem Tonband, rundherum befindet sich eine Schutzhülle aus
Plastik. Zum Lesen/Schreiben wird die Scheibe zum Rotieren gebracht und zwei
"Schreib-/Leseköpfe" senken sich von oben bzw. unten auf die Diskette, die
jetzt zugänglich ist, da während des Betriebs die schützende
Metallmanschette beiseite geschoben wird.
Die einzelnen Punkte auf der Diskette werden magnetisch in oder entgegen der
Drehrichtung ausgerichtet (Eins oder Null). Daher ist es auch sehr wichtig,
Disketten vor Magnetfeldern oder extremen Temperaturen zu schützen, um
Datenverluste zu vermeiden.
Früher waren 5 1/4 " Disketten üblich, heute gibt es nur mehr das 3 ½
Format. Auf eine 3 ½ " Diskette passen - im heute üblichen HD-(High
Density) Format - ca. 1,44 MB an Daten. (Das sind also ca. 1.5 Millionen
Zeichen (Bytes) oder etwa 800 Seiten einfacher Text.)
Formatierung:
Vor dem erstmaligen Betrieb muss eine Diskette erst aufgeteilt werden, und
zwar in Spuren (konzentrisch) und Sektoren (radial). (s. Skizze rechts)
Diesen Prozess nennt man Formatierung. Dabei wird die Diskette aufs Lesen
und Schreiben vorbereitet und ein Bereich eingerichtet, wo dann die Lage der
Daten auf der Diskette gespeichert ist. Man nennt diesen Bereich die FAT
(File Allocation Table = Datei-Anordnungs-Tabelle).
Die Anzahl der Spuren und Sektoren ist je nach Betriebssystem verschieden,
daher lassen sich etwa Disketten, die auf einem Apple Computer oder unter
Linux formatiert wurden, nicht ohne weiteres unter Windows lesen.
9.2.2 Festplatten (Harddisk, HD)
Besitzen wesentlich größere Speicherkapazität als Disketten (bei PCs zumeist
um die 20 GB - das entspricht etwa einer Bibliothek mit 10,000 Büchern!).
Der Datenträger ist fest eingebaut und besteht aus mehreren übereinander
gelagerten Scheiben aus beschichtetem Aluminium. Die Aufteilung erfolgt
wieder in Spuren und Sektoren sowie - für die vertikale Komponente - in
Zylinder. (vgl. Skizze)
Zusätzlich zur Formatierung besteht noch die Möglichkeit, Bereiche für
verschiedene Betriebssysteme (etwa Windows 98 und UNIX) auf einer Festplatte
einzurichten. Dieser Vorgang, der vor der Formatierung erfolgen muss nennt
sich Partitionierung. (Man kann natürlich auch mehrere Partitionen für
dasselbe Betriebssystem einrichten, etwa aus Gründen der Übersichtlichkeit).
Der Zugriff erfolgt wieder durch zwei Schreib-/Leseköpfe pro Scheibe. (s.
Skizze)
Eine Festplatte dreht sich mehrere 1000 mal pro Sekunde, daher setzen die
Köpfe nicht mehr direkt auf, sondern schweben auf einem Luftkissen. (Ein
einziges Staubkorn dazwischen zerstört daher sofort die Festplatte, man
nennt dies einen "Headcrash". Stößt man während des Betriebs kräftig gegen
das Computer-Gehäuse kann dies denselben Effekt haben.)
Leistungskriterien sind die Zugriffszeit (mittlere Zeit zum Auffinden von
Daten auf der HD, heute schon unter 5 ms) und die Transferrate (Anzahl der
Daten, die pro Sekunde gelesen werden können, heute über 10,000 KB/s).
9.2.3 Wechselfestplatten
Im Gegensatz zu normalen Festplatten ist der gesamte Innenteil der
Festplatte austauschbar. Man kann dann die Daten zu einem anderen PC
transportieren, der allerdings über den gleichen Wechselrahmen verfügen
muss.
Wechselplatten haben eine viel geringere Kapazität (zumeist unter 1 GB).
9.2.4 ZIP-Drive und Jaz-Drive
Die Firma Iomega bietet mit diesen Medien die Möglichkeit, Datenträger (3 ½
") mit einer Kapazität von 100 MB und 250 MB (ZIP) bzw. 1 GB und 2 GB (Jaz)
zu verwenden. Herkömmliche Disketten passen allerdings nicht in diese
Laufwerke.
Vorteil: Leicht transportierbar und anzuschließen, ideal zum Sichern und
Transportieren kleiner Datenmengen, vergleichsweise weit verbreitet.
Nachteil: Sowohl Laufwerk als auch Datenträger eher teuer; nicht kompatibel
zu gewöhnlichen Disketten; im Vergleich zu Festplatten sehr langsam.
Diese Laufwerke werden entweder fest eingebaut oder an die parallele oder am
besten an die USB-Schnittstelle (s. Kapitel 13) des PC angeschlossen
9.2.5 Analoge Magnetbänder (Streamer)
Vergleichbar mit Videokassetten.
Vorteile: preiswert, große Kapazität (mehrere GB), ideal zur Sicherung von
Festplatten
Nachteile: sequentieller Zugriff, sehr langsam
9.2.6 DAT-Laufwerke (Digital Audio Tape)
Digitales Tonband, ursprünglich für Audio-Bereich entwickelt; ziemlich
teuer, Daten werden im Unterschied zu analogen Streamern (Bandlaufwerken)
digital abgespeichert.
9.3 Optische Speicher
9.3.1 CD-ROM (Compact Disc - Read Only Memory)
Verbreitetstes Medium für Software. CD-ROMs bestehen aus einer runden
Plastikscheibe mit einer Aluminiumschicht, geschützt durch eine
Lackschicht. Ein Laser brennt bei der Herstellung Vertiefungen ins Aluminium
und schreibt so die Daten.
Beim Lesen wird die CD wieder von einem Laser abgetastet.
Moderne CD-ROM-Laufwerke können auch Kodak Photo-CDs und gewöhnliche
Audio-CDs lesen. Ein eigenes Abspielgerät für diese zwei Datenträger ist
also nicht erforderlich, sofern man einen PC besitzt.
Eine CD-ROM hat eine Kapazität von 650-700 MB. (Entspricht fast 500 (!) 3 ½
" Disketten.), die Datentransferrate und Zugriffszeit liegt allerdings immer
noch deutlich unter der von Festplatten.
Die ersten CD-ROM Laufwerke hatten eine Transferrate von 150 KB/s.
Laufwerke, die doppelt so schnell sind, bezeichnet man als 2-fach (oder
Doublespeed-) Laufwerke, Laufwerke mit 1.200 KB/s als achtfach Laufwerke,
etc. Selbst bei einem 50-fach Laufwerk ergibt sich nur eine Transferrate von
50 x 150 (=7.500) KB/s, wobei dies nur der theoretische Maximalwert ist. -
Die durch-schnittliche Transferrate liegt deutlich darunter, etwa bei 5.000
KB/s)
9.3.2 DVD (Digital Versatile Disc oder Digital Video Disc)
(genau: DVD-ROM); vergleichbar mit der CD-ROM, nur mit viel größerem
Speicherplatz (bis 17 GB, vgl. Tabelle, das entspricht etwa 26 CD-ROMs!)
Diese Menge wird durch eine dichtere Anordnung der Daten und beidseitiges
Beschreiben, teils in zwei Schichten erreicht. DVDs sehen aus wie
gewöhnliche CDs und bieten genügend Platz zum Abspeichern eines kompletten
Spielfilms ohne Qualitätsverlust (diese Filme sind im sogenannten MPEG-2
Verfahren komprimiert), daher werden Videokassetten langsam von DVDs
abgelöst. (Der Vorteil ist nicht nur die längere Haltbarkeit, s.u.)
Besitzt man ein DVD-Laufwerk und eine Grafikkarte mit TV-Ausgang (s.12.7.1),
so kann man sich Spielfilme am Fernseher ansehen, ohne einen teureren
DVD-Player kaufen zu müssen.
Des weiteren eignet sich die DVD für moderne Computerspiele mit vielen
Multimediadaten (Filme, Musik) und für digitale Lexika.
DVD-Laufwerke sind kompatibel zu CD-ROM, Audio-CD und Photo-CD, etc.
Weitere Eigenschaften der DVD-Technologie sind:
1. Sofern Ausgangsmaterial und Abspielgerät es erlauben, kann der Zuschauer
die Kameraperspektive mittels Fernbedienung (Multi-Angle-Funktion) selber
wählen. Bis zu 9 parallele Videospuren - verschiedene "Blickwinkel" ("Angle
") - dies ist allerdings nicht bei normalen Spielfilmen möglich.
2. Bis zu 8 digitale Tonspuren mit jeweils 8 Kanälen und maximal 8
verschiedenen Sprachen.
3. Die drei primären Audio-Formate der DVD-Video sind PCM, Dolby Digital
(s.u.) und MPEG-2. Auf bis zu 8 unabhängigen Tonspuren können diese
Audio-Formate und/oder unterschiedlichen Synchronisations-Fassungen
(Sprachen) des Films abgelegt werden.
4. Wiedergabe von Zeitlupe, wackelfreiem Standbild, Einzelbildvorlauf,
Suchlauf etc.
5. Maximal 32 verschiedene Untertitel-Versionen.
Das Tonformat Dolby Digital (auch AC-3, oder 5.1) ist wahrscheinlich der
größte Anreiz beim Kauf eines Spielfilms auf DVD - An einen digitalen
Verstärker werden fünf Lautsprecher - drei vor dem Zuseher und zwei hinter
dem Zuseher, sowie ein Subwoofer angeschlossen. Spielfilme werden (im
Gegensatz zu Dolby Surround) auch hinten mit Stereo-Ton ausgestrahlt - das
Klangerlebnis ist damit besser als in den meisten Kinos.
Eine kurze Übersicht der gängigen DVD-Formate im Vergleich mit der CD:
SYSTEM SPEICHERKAPAZITÄT SPIELDAUER (AUDIO) SPIELDAUER (VIDEO) CD-ÄQUIV.
Compact Disc 682 Megabyte 78 Minuten 70 Minuten (Video-CD) 1
DVD *simple-sided/
simple-layer (DVD-5) 4,7 Gigabytes 570 Minuten
(9 h 30 min) 133 Minuten 7
DVD *simple-sided/
double-layer (DVD-9) 8,5 Gigabytes 1 050 Minuten
(17 h 30 min) 241 Minuten 13
DVD *double-sided/
simple-layer (DVD-10) 9,4 Gigabytes 1 140 Minuten (19 h) 266 Minuten 14
DVD *double-sided/
double-layer (DVD-18) 17 Gigabytes 2 100 Minuten (35 h) 482 Minuten 26
9.3.3 CD-R (Compact Disc Recordable)
Einmal beschreibbare CD. Eine unbeschriebene CD-R nennt man "Rohling". Das
Beschreiben kann in mehreren Etappen erfolgen ("Multisession"), es können
allerdings nur noch-unbeschriebene Bereiche beschrieben werden. Ist die CD-R
einmal voll, ist kein weiteres Schreiben mehr möglich.
Schreiben geschieht durch einen Laser, der eine Aufzeichnungsschicht erhitzt
(daher der umgangssprachliche Ausdruck "CDs brennen").
Nachteile: Schreibvorgang sehr langsam, CD-Rs sehr empfindlich, bei
Schreibfehlern ist Rohling nicht mehr zu verwenden.
9.3.4 CD-RW (Compact Disc ReWritable)
Eine CD-RW kann etwa tausend mal beschrieben werden. Löschen und Ändern des
Inhaltes ist ebenfalls möglich. Durch Packet Writing (s.u.) kann sich eine
CD-RW sogar wie eine Festplatte verhalten. Derzeit übliche CD-RW-Laufwerke
können CD-R Medien mit bis zu achtfacher und CD-RW-Medien mit vierfacher
Geschwindigkeit beschreiben.
Packet Writing ist ein Verfahren, welches bei CD-RW Laufwerken zur Anwendung
kommen kann. Durch Packet Writing lässt sich mit einer CD-RW wie mit einer
Festplatte arbeiten - d.h. per Drag&Drop können Dateien im Explorer auf das
CD-RW-Laufwerk "gezogen" und damit kopiert werden, ohne dass die übliche
Spezial-Software zum Beschreiben einer CD-R bzw. CD-RW verwendet werden
müsste.
Dateien können auch wieder gelöscht werden, jedoch werden diese nicht sofort
physikalisch auf der CD-RW gelöscht, sondern nur ausgeblendet. Der gelöschte
Speicherplatz wird erst wieder zur Verfügung gestellt, wenn die CD-RW
komplett gelöscht wird.
9.3.5 DVD-RAM
Beschreibbare DVD mit allerdings etwas geringerer Kapazität; derzeit noch
teuer und wenig verbreitet. Die DVD-RAM ist wahrscheinlich das Medium der
Zukunft.
September 1999 wurde das erste Laufwerk (Philips) vorgestellt, das sowohl
CD-RWs als auch DVDs sowohl lesen als auch beschreiben kann.
9.4 Magneto-Optische Speicher
Hierbei handelt es sich um Speicher mit Eigenschaften beider zuvor erwähnten
Typen, also Mischformen.
9.4.1 MO oder MOD (Magneto-Optical Disc)
Wiederbeschreibbar, Oberfläche besteht aus einem magnetisierbarem Material,
das zur Magnetisierung allerdings erst stark erhitzt werden muss (dies
geschieht durch einen Laser).
MO-Laufwerke gibt es für 3,5 und 5,25 Zoll Scheiben.
Extrem sicher gegenüber Datenverlust, Kapazität bis 5 GB aber sehr teuer und
eher langsam.
9.4.2 LS-120 Disketten
Sehen ähnlich aus wie 3,5 Zoll Disketten, fassen aber 120 MB an Daten;
Datenspeicherung erfolgt wie bei einer Diskette, da aber die Daten viel
dichter abgelegt sind, benötigt man einen Laser zum Abtasten der Diskette
und Positionieren der Köpfe.
Vorteile: schneller als herkömmliche Disketten, Laufwerk kompatibel zu 3,5
Disketten (!)
Nachteile: teuer und kaum verbreitet
9.5 Zusammenfassung
Magnetische Speicher Optische Speicher Magn./Opt. Speicher
Zugriffsart Wie oft beschreibbar?
Direkt Sequentiell nicht 1 mal Beliebig oft
Diskette Magnetband CD-ROM CD-R CD-RW MOD
Festplatte DAT DVD-ROM DVD-RAM LS-120 Disketten
Wechselplatte
ZIP/Jaz-Drive
10 Betriebssysteme
Beispiele: DOS, Windows, Mac-OS
Betriebssysteme sind Verbindung zwischen Mensch und Computer, zwischen Hard-
und Software. Betriebssysteme sind selbst Software, also Programme (die
wiederum den Ablauf anderer Programme steuern).
10.1 Aufgaben des Betriebssystems
Das Betriebssystem ...
- überprüft die vorhandene Hardware nach dem Einschalten, meldet eventuell
Fehler
- steuert/überprüft Ein-/Ausgabe zu Bildschirm, Drucker, Tastatur,
Speichern, etc.
- organisiert Verwaltung der Daten auf den Datenträgern
- steuert Programmabläufe
- überwacht und steuert Zusammenspiel der einzelnen Systemkomponenten
Es versetzt den PC und den Benutzer also in die Lage, mit
Anwendungsprogrammen zu arbeiten
10.2 Klassifikation von Betriebssystemen
Es gibt viele verschiedene Betriebssysteme. Die Wahl des richtigen Produkts
hängt von den Einsatzgebieten des verwendeten PCs ab. Entscheidend sind...
? ...die Anzahl der Anwender, die das Betriebssystem (den PC) gleichzeitig
nutzen. Hier unterscheidet man zwischen Single-User- (ein Benutzer) und
Multi-User-(Mehr-Benutzer)- Betriebssystemen. MS-DOS z.B. ist ein
Single-User-System.
Für ein Multi-User-System ist ein Netzwerk (siehe Kapitel 4.3 und Kapitel
14) erforderlich, da jeder Benutzer einen eigenen PC benötigt.
? ...die Anzahl der "gleichzeitig" ablauffähigen Anwenderprogramme. Kann man
immer nur ein Programm in den Speicher laden, spricht man von einem
Single-Tasking-System - kann das Betriebssystem mehrere Programme
gleichzeitig bearbeiten (wie z.B. Windows 98), spricht man von einem
Multitasking-System.
Man unterscheidet folgende Varianten von Multitasking:
Kooperatives Multitasking (Programme können, wenn sie das System nicht
blockieren, abwechselnd arbeiten; z.B. Windows 3.x)
Preemptives Multitasking (Betriebssystem teilt den Programmen CPU-Zeiten
automatisch zu; z.B. Windows 9x)
Pervasives Multitasking (noch bessere Zeiteinteilung, z.B. BE OS 4.5)
? ...die Leistungsfähigkeit des PC. Mit Hardware, die 32 Bit gleichzeitig
bearbeiten kann (z.B. Pentium), empfiehlt sich natürlich ein 32-Bit
Betriebssystem wie etwa Windows 98.
? ... die Datensicherheit: Legt man wert auf ein System, das möglichst
selten abstürzt und Unbefugte fernhält, empfiehlt sich etwa Linux oder
Windows 2000.
? ... Benutzerführung und Arbeitsweise: Man unterscheidet zwischen
kommandoorientierten Be-triebssystemen (Befehlseingabe über Tastatur; z.B.
MS-DOS; Detailwissen über Computer erforderlich) - und grafikorientierten
Systemen (Maus, Fenster, Icons; z.B. Windows; einfach zu bedienen, aber viel
unberechenbarer...)
10.3 Der Startvorgang bei einem PC
Nach dem Einschalten passiert folgendes:
1. Der Rechner sucht in einem ROM (BIOS, Basic Input Output System) nach dem
"Bootstrap-Loader", einem Programm, das dem Rechner sagt, was er als
nächstes tun soll.
2. Der PC sucht auf der Festplatte oder einer Diskette nach den Dateien
"io.sys" und "msdos.sys"
3. Der Rechner sucht, je nach Inhalt der beiden erwähnten Dateien, ein
entsprechendes Betriebssystem (z.B. Windows 98).
4. (falls es sich um DOS oder Windows handelt): Der Rechner startet die
Dateien config.sys und autoexec.bat (falls vorhanden), die selber kleine
Programme ausführen (z.B. die Tastatur konfigurieren).
5. Das Betriebssystem wird endgültig geladen.
10.4 Überblick über die wichtigsten Betriebssysteme
Es gibt zahllose Betriebssysteme auf dem Markt, wobei Microsoft mit über 95%
praktisch ein Monopol hat. (Zumindest bei den Desktop-Betriebssystemen).
10.4.1 MS-DOS
(Microsoft Disk Operating System); erstes Betriebssystem für IBM-PCs (1981);
kommandoorientiert durch Tastaturbefehle wie "copy", "help", "delete". DOS
kann ohne Zusatzprogramme nur 640 KB RAM nutzen. Selbst unter Windows 98
sind die meisten uralten DOS-Programme noch lauffähig.
10.4.2 MS-Windows 3.x
(3.x steht für die Versionen 3.0, 3.1 und 3.11)
Kein echtes Betriebssystem, sondern nur eine grafische "Oberfläche
(graphical user interface, GUI) für DOS.
Voraussetzung: 80286 mit 1 MB, ideal: i386 mit 4MB Speicher
Neuheiten:
? Volle Mausunterstützung, Verwendung von Icons, Fenstern
? Programme müssen nicht mehr einzeln auf Hardware angepasst werden wie bei
DOS
? bis zu 16 MB Speicher nutzbar
? WYSIWYG-Technik (what-you-see-is-what-you-get, d.h. bildschirmgetreue
Ausdrucke)
? DDE (Dynamic Data Exchange, dynamischer Datenaustausch) - Daten werden
nicht einfach zur Gänze von einem Programm ins andere kopiert, man gibt nur
einen Verweis dorthin an.
? OLE (Object Linking and Embedding, Objekte verknüpfen und einbinden) -
z.B. eine Excel-Tabelle kann in Word eingefügt werden, und dort - ohne Excel
direkt zu starten - (etwa mit einem Doppelklick) bearbeitet werden.
? Kooperatives Multitasking
Seit Version 3.11 ("Windows für Workgroups"):
? Netzwerkfunktionen
10.4.3 MS-Windows 95
Unabhängig von DOS (dieses wird aber noch mitgeliefert als Version 7.0);
32-Bit Unterstützung.
Voraussetzung: i386SX mit 4MB, sinnvoll: Pentium 90 mit 16 MB RAM oder höher
Fast alle DOS-Programme weiter verwendbar; sinnvoll ist aber nur der Einsatz
von 32-Bit-Programmen (andere können Win95 bremsen oder sogar beschädigen
und lassen sich nur schwer wieder löschen - zumeist bleibt "Schrott" auf
der Festplatte zurück)
Eine der wichtigsten Neuheiten ist:
Plug and Play (PnP):
Bis etwa 1995 war es notwendig, alle PC-Komponenten von Hand zu
konfigurieren (d.h. dem Rechner mitteilen, welche Hardware eingebaut ist) -
dazu waren häufig fundierte PC-Kenntnisse erforderlich (und das Wissen,
welche Hardware man überhaupt besitzt!)
PnP ermöglicht nun die automatische Erkennung neu eingebauter Hardware (im
Idealfall jedenfalls ... deshalb hört man gelegentlich auch den Ausdruck
Plug-and-Pray...)
Für PnP sind aber drei Voraussetzungen erforderlich:
1. Das Gerät (z.B. die Soundkarte) muss PnP-fähig sein
2. Der PC selbst muss PnP-fähige Komponenten erkennen können (fast alle seit
1994 produzierten PCs können dies).
3. Das Betriebssystem muss PnP-fähig sein. (z.B. Windows 9x).
Weitere Neuheiten:
? Dateinamen bis 255 Zeichen lang, können Leerzeichen enthalten
? Neue, benutzerfreundliche Gestaltung der Oberfläche ("Desktop")
? Weniger fehleranfällig
? Papierkorb
? Drag&Drop (Ziehen und Fallenlassen von Icons mit der Maus)
? (für 32-Bit Programme:) Preemptives Multitasking
? Multithreading (z.B. mehrere Word-Dokumente gleichzeitig bearbeitbar)
? Verbesserte Netzwerkfunktionen
? Zahlreiches Zubehör (Textverarbeitung, Kalender, Malprogramm, Spiele,...)
Seit der Version OSR2 (die man nur in Kombination mit einem neuen Computer
erwerben kann):
? Neues verbessertes Dateiformat für die Festplatte ("FAT32")
? Unterstützung von MMX (s. 6.3.2) und USB (siehe 13.4)
10.4.4 Windows 98
Erhältlich seit Juni 1998; derzeit meistverkauftes Betriebssystem der Welt.
Voraussetzung: i386SX mit 4MB, sinnvoll: Pentium II/233 mit 64 MB RAM oder
höher
Kaum Änderungen gegenüber Windows 95:
? Der Internetbrowser MS Internet-Explorer 4.0 ist fixer Teil von Windows
? Verschmelzen des normalen Explorers mit dem Internet-Explorer
? Auf Wunsch neue Oberfläche "Active Desktop" (viele neue Funktionen, etwa
Einbinden von URLs in den Hintergrund) - Nachteil: Computer wird dadurch
etwas langsamer.
? Sehr umfangreiche Hardwareerkennung
? Verbesserte Netzwerkfähigkeiten
? Verbesserte Unterstützung für Multimedia durch eingebautes "Direct X 6.0"
? FAT 32 ermöglicht Festplatten-Partitionen größer als 2 GB und kleinere
"Cluster" (Zuordnungs-einheiten), d.h. kleine Dateien brauchen nicht mehr so
viel Platz.
? Zwei Grafikkarten können eingebaut werden, dadurch Anschluss von zwei
Monitoren möglich.
? Noch absturzsicherer (dafür ein paar neue Fehler)
? Unterstützung von neuer Hardware wie DVD oder USB (siehe 13.4)
Seit Juli 1999 ist Windows 98 SE (Second Edition) erhältlich. Dieses Update
bietet einige zusätzliche Funktionen, die allerdings auch einzeln aus dem
Internet zu beziehen sind.
Schwächen von Windows 98:
- Keine Multiprozessorunterstützung
- Nur mit INTEL (und kompatiblen) CPUs verwendbar
- Teile des Betriebssystems immer noch in 16-Bit
- Dateisystem FAT32 ist zwar neu, aber immer noch unprofessionell (z.B.
keine Sicherheitsmaßnahmen)
10.4.5 Windows ME (Millennium Edition)
Nachfolger von Windows 98 - soll Anfang 2001 auf den Markt kommen. Letztes
MS Betriebssystem, das auf DOS basiert.
10.4.6 MS Windows NT 4.0 (New Technology)
(NT = New Technology); kein Nachfolger von Windows 3.x oder Windows 95
sondern eine eigene Windows-Variante für professionelle Anwendungen.
Windows NT 4.0 gibt es in zwei Versionen:
- Windows NT Workstation (für Einzelbenutzer).
- Windows NT Server für Netzwerkserver inklusive kompletter
Netzwerksoftware.
Vorteile gegenüber Windows 9x:
? echtes 32-Bit Betriebssystem (16-Bit Programme i.A. nicht lauffähig.)
? hardwareunabhängig (verlangt keinen INTEL-Prozessor)
? Viel stabiler und absturzsicherer
? bessere Netzwerkfähigkeiten
? sicherer bezüglich Datenschutz (Passwörter, Zugriffsrechte,...)
? Multiprozessorunterstützung
? Gutes Filesystem "NTFS"
Nachteile:
- kein Plug and Play
- kein Powermanagement
- kaum Multimediafeatures
- keine Unterstützung moderner Hardware (USB, Firewire, DVD,...)
- inkompatibel zu manchen Windows-Anwendungen (ältere Programme, Spiele,...)
- andere Nutzung der Festplatte (NTFS) ist zwar effektiv, aber inkompatibel
zu Win98
- verlangt gute Hardware (mindestens 128 MB RAM und einen Pentium II)
- Nicht für Einsteiger geeignet, kompliziert und umständlich zu handhaben
- Sehr teuer
10.4.7 MS Windows 2000
"Windows 2000" ist der neue Name für die Version 5.0 von "Windows NT". Auf
den Markt kam Windows 2000 erst Mitte Februar 2000 - und zwar in vier
unterschiedlichen Versionen:
- Windows 2000 Professional für Arbeitsplatzrechner
- Windows 2000 Server für Workgroups
- Windows 2000 Advanced Server für größere Abteilungen oder ganze Firmen,
und
- Windows 2000 Data Center Server, die mächtigste Version, die
Multiprozessor-Rechner mit bis zu 16 Prozessoren unterstützt.
Windows 2000 vereint die Vorteile von Windows 9x (Komfort, Multimedia) und
Windows NT 4.0 (Sicherheit, Netzwerkfunktionen) und bietet einiges Neues wie
Echtzeitverschlüsselung der Festplatte, verbesserte Netzwerkfeatures,
u.v.a.m.)
10.4.8 MS Windows CE
Spezielles 32-Bit System, verwendbar für viele mobile Computer (Handhelds
bis Subnotebooks - siehe 3.2.2); Oberfläche vergleichbar mit Windows 9x,
aber nicht 100%-kompatibel; gesamtes Betriebssystem und Software (einfache
Office-Version) in einem ROM (8-16 MB) gespeichert.
10.4.9 BE OS 5.0
Extrem leistungsfähiges 64-Bit Betriebssystem (d.h. 64-Bit Rechner, z.B.
Pentium erforderlich)
Vorteile:
? Nicht abwärtskompatibel (im Gegensatz zu Windows 9x), daher extrem schnell
? Pervasives Multitasking
? Multiprozessorfähig
? Leistungsfähiges Filesystem (bis 18 Mio. TeraByte!)
? Hohe Datensicherheit
? Gratis erhältlich (ab März 2000)
Nachteile:
- (noch?) Geringes Softwareangebot
- Keine Multiuser-Funktionen
10.4.10 UNIX
UNIX wurde 1969 von DELL entwickelt und ist ein Betriebssystem für
Großrechner.
Vorteile: sehr sicher; ideal für Netzwerke; hardwareunabhängig
Nachteile: nur für Profis, da anwenderunfreundlich, zahllose inkompatible
UNIX-Versionen existieren, schwer zu warten, wenig Software verfügbar, kaum
Multimediafunktionen.
Solaris 7/x86 ist die bekannteste UNIX Version für den PC.
10.4.11 Linux
1991 von Linus Torvald entwickeltes UNIX-ähnliches Betriebssystem.
- Kostenlos erhältlich
- Bietet alle Vorteile von UNIX.
- Echtes 32-Bit System
- Sehr sicher gegenüber Abstürzen und Viren
- Sehr kompliziert zu installieren.
Wird besonders an Universitäten und von Informatik-"Gurus" Windows
vorgezogen. Linux wird laufend von vielen Benutzern weltweit verbessert, da
der Programmcode frei verfügbar ist!
Auch für Linux existieren grafische - teils an Windows 9x angelehnte -
Benutzeroberflächen.
10.4.12 MacOS 10
Neuestes Betriebssystem für Apple Computer. Voraussetzung: Motorola
Prozessor oder PowerPC und 64 MB RAM. Am ehesten vergleichbar mit Windows
9x.
Vorteile: sehr bequem zu bedienen, echtes Plug and Play, ausreichend
Software (auch MS-Programme!) erhältlich
Nachteil: läuft nur auf Apple Computern
10.4.13 OS/2 Warp 4
Produkt von IBM; vergleichbar mit Windows NT, sehr leistungsfähig,
allerdings mittlerweile fast ganz vom Markt verschwunden.
10.4.14 New Deal 3.0
Für ältere Computer (z.B. 386er) gedachte grafische Oberfläche für DOS.
(Nachbildung des Windows9x Desktops). Sehr zuverlässig und einfach zu
bedienen, viele Anwendungen bereits mitgeliefert. Nachfolger von "Geo Works
".
11 Bussysteme
Gesamtheit aller Leiterbahnen auf der Hauptplatine, über die alle wichtigen
Bestandteile des PC miteinander verbunden sind.
Nicht nur das Tempo des Prozessors ist wichtig, sondern auch die
Geschwindigkeit, mit der Daten transportiert werden, mit anderen Worten die
Leistungsfähigkeit des Bussystems.
Es gibt viele verschiedene Bussysteme, die wichtigsten sind:
11.1 Der ISA-Bus (Industry Standard Architecture)
Sehr altes Bussystem, aber billig, robust und technisch ausgereift. Wird
teilweise noch heute ver-wendet, z.B. für Netzwerkkarten oder ältere
Soundkarten.
11.2 Der VESA-Local-Bus
Erste Nachfolger des ISA-Bus waren der MCA- und der EISA-Bus, die aber nicht
zu ISA kompatibel waren. Der VESA-Local-Bus hingegen konnte ISA-Steckkarten
aufnehmen und war das erste System, bei dem die Bus-Taktrate von der
Prozessorgeschwindigkeit abhängig war. (Man nennt dieses Prinzip "Local Bus
- diese Eigenschaft gilt auch für alle folgenden Bussysteme).
11.3 Der PCI-Bus (Peripheral Component Interconnector)
Derzeitiger Standard für PCs. Der PCI-Bus arbeitet unabhängig vom Prozessor
und entlastet ihn damit.
Weitere Vorteile: Leichte Installation von Steckkarten möglich ("Plug and
Play", siehe 10.4.3), nicht an bestimmte Prozessoren gebunden (d.h. auch
z.B. bei Apple-Computern einsatzfähig).
Er ist allerdings inkompatibel zu ISA. Daher findet man auch heute noch
ISA-Steckplätze in allen neuen PCs.
11.4 Der AGP-Bus (Accelerated Graphics Port)
Neuer Steckplatz, aber nur für Grafikkarten.
Der AGP-Bus arbeitet unabhängig vom PCI-Bus.
Idee: Grafisch anspruchsvolle Software (speziell Computerspiele mit
3D-Grafiken) benötigen viel Speicher, ältere Grafikkarten haben aber nur bis
etwa 2 MB. Der AGP-Bus ermöglicht es, das RAM des Computers zusätzlich zu
nutzen.
Diese Möglichkeit wird allerdings gar nicht genutzt, da der Speicher
moderner Grafikkarten mit 32 MB und mehr ohnehin schon groß genug ist.
Der AGP-Bus wird mit 66 Megahertz getaktet - gegenüber dem mit 33 Megahertz
getakteten PCI bedeutet dies eine Erhöhung der maximalen Übertragungsrate
auf 266 Megabyte pro Sekunde (MB/s). Im Pipelining-Verfahren des
AGP-2x-Modus bis 595 MB/s, bei AGP-4x bis etwa 800 MB/s. Weitere Vorteile:
Zusätzliche Signalleitungen, um das Pipelining zu steuern. Während beim
PCI-Bus eine Anforderung von Daten erst dann erfolgen kann, wenn der
vorangegangene Datentransfer abgeschlossen ist, können beim AGP Daten
bereits angefordert werden, während die zuvor verlangten Daten noch im
Speicher gesucht werden.
Am AGP-Bus hängt ausschließlich die Grafikkarte. Auf andere Geräte
(SCSI-Adapter, ISDN-Karte,...) muss man keine Rücksicht nehmen.
Texturen können direkt aus dem Arbeitsspeicher (RAM) ausgeführt werden.
Auf der AGP-Grafikkarte reichen 8 Megabyte RAM auch für anspruchsvolle
Aufgaben aus.
Hauptprozessor (CPU) und Grafikchip können quasi gleichzeitig auf das RAM
zugreifen.
Auf die Grafikdaten im RAM kann die CPU schneller zugreifen als auf den
lokalen Grafikspeicher auf der Karte.
12 Ein- und Ausgabegeräte
12.1 Monitor
Wahrscheinlich wichtigster Teil der Peripherie. Um seine Augen zu schonen
(besonders für längere Arbeit am PC wichtig) und sinnvoll arbeiten zu
können, sollte man auf einen guten Monitor besonders Wert legen. Einen guten
Ruf haben u.a. Geräte von Eizo, Iiyama, NEC und ViewSonic.
Jeder moderne Monitor ist in der Lage, sich nach längerer Pause selbst
abzuschalten. Weitere Kriterien beim Kauf von Monitoren sind:
12.1.1 Größe
Gemessen wird die Monitorgröße (wie bei Fernsehern) als Bildschirmdiagonale,
aber in Zoll. Sinnvoll sind mindestens 17" für Textverarbeitung und 21"-22
für CAD (Computer Aided Design). Aktuelle Preise für sehr gute Monitore:
ca. öS 5000,- (17"), öS 6.000,- (19") und öS 12.000,- (21")
12.1.2 Monitortypen
? Kathodenstrahlmonitor (CRT-Monitor): "Herkömmliche" Bildschirme: arbeiten
ähnlich wie Fernseher; d.h. ein Elektronenstrahl, der auf die Innenseite der
Monitorscheibe ausgesandt wird, regt eine Phosphorschicht zum Leuchten an.
Vorteile: erhältlich in allen Größen und Preislagen, voller Blickwinkel
(180?)
Nachteile: große Abmessungen, Bildqualität nicht bei allen Produkten optimal
Besonders gut sind Planare Monitore: Diese arbeiten mit einer völlig flachen
Oberfläche und bieten so ein verzerrungsfreies Bild zu einem kaum höheren
Preis als gewöhnliche CRT-Monitore.
? TFT-Monitor: (Thin Film Transistor); Für jeden einzelnen Bildpunkt wird
ein Transistor und ein Kondensator verwendet. Flache Bauweise - sehr
platzsparend.
Besonderheit: bei CRT-Monitoren wird der Rand des Schirms vom Gehäuse
verdeckt, ein 17" CRT-Monitor bietet also nur etwa 15,9" tatsächlich
sichtbaren Bereich. Bei einem TFT-Monitor ist die gesamte Diagonale auch
sichtbar. Ein 15,1" TFT-Monitor ist also etwa mit einem 17" CRT-Monitor zu
vergleichen!
Vorteile: platzsparend, extrem gute Bildqualität, niedriger Stromverbrauch,
strahlungs-arm, flimmerfrei.
Nachteil: (immer noch) sehr teuer (15" ca. öS 17.000,- 17" Monitore fast
unbezahlbar), eingeschränktes Blickfeld (110? bis 160?), teils Probleme beim
Wechseln der Bildschirm-Auflösung
12.1.3 Die Bildwiederholfrequenz
Damit das menschliche Auge kein Flimmern wahrnimmt, müssen mindestens 70-80
Bilder pro Sekunde (d.h. 70-80 Hz) dargestellt werden können.
Die sogenannte Zeilenfrequenz (oder Horizontalfrequenz) eines Monitors
(ersichtlich aus dem Handbuch) gibt an, bei welcher Auflösung wie viele
Bilder möglich sind. Dies lässt sich durch fol-gende Formel errechnen:
Anzahl Bilder pro Sekunde = (Zeilenfrequenz in Hz) / (Zeilenanzahl der
gewünschten Auflösung)
Beispiel: Maximale Zeilenfrequenz des Monitors = 56 kHz, gewünschte
Bildschirmauflösung = 1024x768 Punkte
dies ergibt 56000 / 768 = 72,9 Hz, also ein flimmerfreies Bild.
Damit das Bild auch bei höheren Auflösungen nicht flimmert, sollte der
Monitor eine Zeilenfrequenz von zumindest 80 kHz haben. Dies ermöglicht bei
einer Auflösung von 1024x768 Punkten 100 Bilder in der Sekunde, also 100 Hz,
und bei einer Auflösung von 1280x1024 Punkten immer noch 75 Hz.
Bemerkung: Es reicht freilich nicht aus, dass der Monitor eine gewisse Zahl
von Bildern pro Sekunde darstellen kann; auch die Grafikkarte muss dazu in
der Lage sein. Moderne Grafikkarten sind allerdings zu viel höheren
Frequenzen fähig als selbst die besten Monitore überhaupt darstellen können.
12.1.4 Auflösung
Ein Monitor kann nicht beliebig hohe Auflösungen darstellen. Ausschlaggebend
dafür ist (bei einem CRT-Monitor) das Auflösungsvermögen des
Elektronenstrahls. Die kleinsten heute darstellbaren Punkte haben einen
Durchmesser von etwa 0,2 mm. (Man nennt diesen Wert auch Lochmaske oder
Konvergenz.) Je höher die Auflösung des Strahls, desto kleinere Punkte sind
möglich und desto höher kann die maximale Bildschirmauflösung gewählt werden
.
Die Grenze liegt zumeist bei 1024x768 Punkten bei 15" Monitoren, 1280x1024
Punkten bei 17" Monitoren und 1600x1200 bei 21".
12.1.5 Bildqualität
Beim Kauf sollte man darauf achten, dass das Bild scharf ist, die Farben
klar, keine Verzerrungen an den Rändern auftreten und genügend Möglichkeiten
(Knöpfe, Schalter) vorhanden sind, das Bild optimal einzustellen.
Letzteres geschieht zumeist über ein "On-Screen"-Menü (OSD), das durch an
der Frontseite angebrachte Tasten aktiviert wird. Hierbei werden die Daten
direkt am Bildschirm eingeblendet.
12.2 Drucker
So gut wie alle heute eingesetzten Drucker sind "Punktmatrixdrucker", d.h.
die zu druckende Seite wird aus lauter einzelnen Punkten aufgebaut.
Für die Druckqualität entscheidend ist daher die Anzahl der Punkte pro
Flächeneinheit. Diese wird angegeben in dpi (dots per inch, Punkte pro
Inch).
Die wichtigsten Druckertypen sind:
12.2.1 Nadeldrucker
Heute kaum noch in Verwendung; 9-48 Nadeln bauen die einzelnen Zeichen, bzw.
die Grafiken auf. Mehr Nadeln ergeben daher ein besseres Druckbild.
(einziger) Vorteil: Durchschläge sind möglich
Nachteile: schlechte Druckqualität, sehr laut, sehr langsam, heute kaum
noch erhältlich
12.2.2 Tintenstrahldrucker
Arbeiten wie Nadeldrucker, nur mit einzelnen Tintendüsen statt Nadeln.
Mehrere 1000 Tintentropfen pro Sekunde werden auf die Seite gesprüht.
Vorteile: bei Farbdrucken bestes Preis/Leistungsverhältnis aller Drucker
Nachteile: deutlich langsamer als Laserdrucker, Tinte bleicht aus und kann
verwischen, für gute Farbdrucker teures Papier notwendig, teure
Farbpatronen, Patronen sehr schnell leer, Patronen können austrocknen, keine
Durchschläge möglich, aufwendige Wartung.
Seit ein paar Jahren sind schon Tintenstrahldrucker erhältlich, die in
Fotoqualität drucken können. So ein Ausdruck erfordert allerdings spezielle
Tinte, sehr teures Papier (über öS 10,- pro Seite) und dauert mehrere
Minuten.
Es gibt auch schon Geräte, bei denen die Tinte durch eine Schutzschicht
(zusätzliche transparente Farbe) wasserfest gemacht wird. (z.B. Canon
BJC-7000)
Spitzenmodelle bei Tintenstrahldruckern sind z.B. HP Deskjet 970 Cxi oder
Epson Stylus Color 860, die knapp öS 5000,- kosten.
12.2.3 Laserdrucker
Arbeiten wie Kopierer; ein gebündelter Laserstrahl zeichnet Lichtpunkte auf
eine Walze und lädt sie elektrisch auf. Ist die gesamte Seite aufgezeichnet,
bleiben die Toner-Teilchen auf der Walze haften und werden dann auf Papier
aufgetragen und danach eingeschmolzen.
Vorteile: beste Druckqualität, schnellstes Arbeitstempo, geringste
Lärmbelästigung, Toner lange haltbar.
Nachteile: Schwarz-Weiß-Drucker etwas teurer als Tintenstrahldrucker,
Farblaserdrucker kosten ab öS 25.000,- aufwärts, gute Modelle kosten gar um
die öS 70.000,-
12.2.4 Plotter
Kein Punktmatrixdrucker. Gedacht für technische Zeichnungen u.ä. Ein
Tintenstrahl (früher ein Stift) zeichnet auf großflächigem Papier (bis
Format A0) geometrische Figuren wie Kurven, Kreise, Linien,...
12.3 Scanner
Gedacht zum Einlesen und Weiterbearbeiten von Fotos, Grafiken und Texten.
Man unterscheidet zwischen Handyscannern (kleiner Kasten wird von Hand über
Vorlage geführt; liefert eher schlechte Ergebnisse, dafür sehr billig; heute
kaum noch verbreitet) und Flachbettscannern. (Vorlage wird wie bei Kopierern
auf das Gerät aufgelegt.)
Das Bild wird vom Scanner analysiert, digitalisiert und zum Computer
gesandt.
Es ist auch möglich, Schriften nicht nur als "Grafik" einzuscannen, sondern
direkt im Textformat (z.B. Word 2000) abzuspeichern. Dazu benötigt man
sogenannte OCR-Software. (Optical Character Recognition, optische
Zeichenerkennung). Der Vorteil von OCR ist, dass der Text weiterbearbeitbar
ist und viel weniger Platz benötigt als die Grafik.
Gute Scanner sind heute bereits zu niedrigen Preisen (unter öS 2.000,-)
erhältlich. Leistungskriterien sind die Auflösung (wieder in dpi angegeben),
Scan-Geschwindigkeit, und die Farbtiefe (d.h. die Fähigkeit, möglichst viele
Farben unterscheiden zu können.)
12.4 Modem
(MODulator-DEModulator) Gerät, das digitale Signale in analoge umwandelt und
so die Datenübertragung über ein Telefonnetz ermöglicht. Digitale Signale,
die von Computern verarbeitet werden, lassen sich nicht direkt über das
Telefonnetz übertragen. Sie setzen sich aus separaten Einheiten zusammen,
die normalerweise mit einer Serie von Nullen und Einsen dargestellt werden.
Analoge Signale wechseln ständig. Eine Schallwelle stellt z. B. ein analoges
Signal dar.
Das Sender-Modem wandelt nun die digitalen Signale des sendenden Computers
in analoge Signale um. Erreicht das Signal seinen Bestimmungsort, stellt das
Empfänger-Modem das ursprüngliche digitale Signal wieder her, das dann vom
empfangenden Computer verarbeitet wird.
Wenn beide Modems gleichzeitig Daten übertragen können, arbeiten die Modems
im so genannten Voll-Duplex-Modus; kann nur ein Modem zu einer bestimmten
Zeit senden, funktionieren die Modems im Halb-Duplex-Modus.
Modems gibt es als externe Geräte oder als Steckkarten (besonders bei ISDN
verbreitet) - unter einem Kabel-Modem versteht man ein Modem zum Anschluss
des PC ans Internet über Kabel-TV.
12.5 Digitale Kameras
Speichern Fotos nicht auf Film, sondern digital. (Auf Diskette,
Mini-Festplatte oder Speicherkarten). Wir zählen sie zur
Computer-Peripherie, da man sie mit dem PC verbinden kann - heute schon
mittels USB (s. 13.4) und dort die Bilder weiter bearbeiten und abspeichern
kann.
Digitale Kameras sind seit 1995 erhältlich. (Damals Auflösung von 320x240
Punkte und maximal 1MB RAM).
Heutige Geräte sind schon um weniger als öS 10.000,- erhältlich und bieten
schon Auflösungen bis zu 3 Millionen Pixel. - Profigeräte (digitale
Spiegelreflexkameras, die sogar die Verwendung von Objektiven herkömmlicher
Kameras erlauben) kosten allerdings noch ein kleines Vermögen. Gute Geräte
lassen sich mit einem Handy verbinden und können so schnell Bilder versenden
(für Journalisten interessant).
Vorteile: Unerwünschte Aufnahmen sofort löschbar, keine Kosten für
Filmentwicklung, leichte Nachbearbeitung, digitale Spielereien möglich (z.B.
Weichzeichner, Mikrofon, Panoramabilder,...) geeignet für "Schnappschüsse
zwischendurch.
Nachteile: Sehr hoher Stromverbrauch, (noch) etwas niedrige Bildqualität als
herkömmliche Kameras (diese bieten ca. 7 mal so viele Pixel - also 20-22
Mio. Pixel), schlechtere Farbwiedergabe, Temperaturempfindlichkeit, bei
hoher Auflösung nur wenige Bilder speicherbar, guter Drucker für Bildausgabe
erforderlich, noch teurer als herkömmliche Kameras (zusätzlich noch hohe
Druckkosten für Fotos, vgl. 12.2.2), Gute Spiegelreflex-Digitalkameras sogar
extrem teuer (teils sechsstellige Beträge).
12.6 Sonstige Peripherie
12.6.1 Tastatur
Vergleichbar einer Schreibmaschine, heute erweitert um verschiedene
Spezialtasten für Textverarbeitung, leichtere Bedienung von Windows 9x oder
das Internet.
12.6.2 Maus
Eingebaute Rollkugel wandelt Handbewegungen in elektrische Signale um, die
zum Computer gesandt werden. Es gibt Mäuse mit zwei und drei Tasten, Mäuse
mit einem Rädchen (z.B. zum Scrollen) sowie kabellose Mäuse (arbeiten mit
Infrarotlicht).
Eine Revolution in der Maustechnologie gelang Microsoft Ende 1999 mit dem
"Intellieye" - die Kugel wird hier durch eine miniaturisierte Digitalkamera
ersetzt, die pro Sekunde 1.500 Bilder von der Unterlage macht und dadurch
besonders präzise Bewegungen ermöglicht. Auch das Mouspad wird dadurch nicht
mehr benötigt und die Maus ist praktisch wartungsfrei!
Das Spitzenmodell von Microsoft - die Intellimouse Explorer mit zwei
zusätzlichen programmierbaren Tasten, einem Rad und dem Intellieye kostet
ca. öS 900,-
12.6.3 Eingabegeräte für Computerspiele
? Joystick: Bewegungen eines Steuerknüppels und Tastendrucke werden in
Signale umgewandelt und zum PC gesandt. Besonders geeignet für
Flugsimulatoren.
? Gamepad: kleines Brett mit vielen Knöpfen; geeignet für Hüpf- und
Springspiele
? Trackball: "umgedrehte Maus"; Balldrehungen steuern Spielfiguren;
? Lenkräder: werden häufig mit Pedalen ausgeliefert; gedacht für
Auto-Rennspiele
? Force-Feedback-Geräte: Joysticks, Lenkräder, Mäuse(!) und Sessel (!!!),
die Kraft an den Spieler übertragen (d.h. rütteln, etwa bei Turbulenzen im
Flug oder beim Fahren über Schotter).
12.6.4 Kombinationsgeräte
Die teilweise verwandten Fähigkeiten mancher Peripheriegeräte führen dazu,
dass sogenannte Kombigeräte immer häufiger in den Geschäften zu finden sind.
Beispiele: Fax-Modem
Scanner-Drucker
Sogar eine Kombination aus Telefon, Anrufbeantworter, Fax, Drucker und Modem
ist schon erhältlich.
12.7 Multimediakomponenten
12.7.1 Grafikkarten
Die Grafikkarte sorgt für die Ausgabe von Texten und Bildern am Monitor. Für
Grafiker und Computerspieler ist die Grafikkarte heute eine der wichtigsten
Komponente des PC,
Kaufkriterien für Grafikkarten sind vor allem:
Hauptspeicher:
Vom eingebauten Hauptspeicher (heute schon bis 32 MB) sind die maximal
mögliche Auflösung (idealerweise mindestens 1600x1200 Punkte) und die Anzahl
der dabei darstellbaren Farben (unbedingt "True Color", also 16,7 Millionen
Farben oder 24 Bit) abhängig.
Weniger als 8 MB Speicher ist heute nicht mehr sinnvoll, für moderne
Computerspiele sind sogar 32 MB notwendig.
Das Bussystem:
Heute üblich sind Grafikkarten für den PCI- und den AGP-Bus.
AGP-Grafikkarten sind auf jeden Fall vorzuziehen, da sie schneller sind und
zusätzlich zum eigenen Speicher das RAM des PC verwenden können. (siehe auch
11.4)
Der Grafikchip:
Dieser bestimmt, wie schnell die Grafikkarte Bilder aufbauen kann und wie
viele Bilder pro Sekunde möglich sind. Um etwa schnell scrollen zu können
oder Fenster ohne Ruckeln zu verschieben, braucht man einen schnellen
Grafik-Chip.
3D-Fähigkeiten:
Besonders für Multimedia (speziell Computerspiele) ist es wichtig, dass
moderne Grafikkarten einen schnellen 3D-Chip besitzen. Diese Chips sorgen
dafür, dass dreidimensionale Objekte schneller berechnet werden können und
ermöglichen so mehr Bilder pro Sekunde und damit eine flüssige Darstellung
auch bei hohen Auflösungen - außer dieser Fähigkeit können 3D-Chips Objekte
mit Texturen überziehen und beherrschen zahllose Techniken zur
Beschleunigung und Verbesserung der Bilddarstellung. (Spiegelungen auf
Objekten, Transparenzeffekte, farbiges Licht, Nebel, etc.)
Anfang 1997 waren solche Spezialchips nur auf 3D-Zusatzkarten, die parallel
zur "normalen" Grafikkarte eingebaut wurden (z.B. Diamond Monster 3D)
verbreitet, seit Ende 1998 gibt es bereits Grafikkarten, die 2D und 3D
perfekt beherrschen. 3D-Zusatzkarten sind daher nicht mehr sinnvoll und
werden seit 1999 auch nicht mehr produziert.
Der schnellste und beste 3D-Chip (Stand Februar 2000) ist der GeForce 256
DDR der Firma nVidia.
Erhältlich u.a. auf der "Erazor X" von Elsa oder der "Annihilator Pro" von
Creative Labs.
Zubehör:
Beim Kauf einer Grafikkarte sollte man auch darauf achten, dass folgendes
Zubehör verfügbar ist:
- Aktuelle Treiber (ansonsten Suche im Internet notwendig)
- Software (viele Grafikkarten werden mit Multimediasoftware und Spielen
ausgeliefert)
- TV-Ausgang (zur Bild-Ausgabe am Fernseher, spart den Kauf eines
DVD-Players, wenn ein DVD-Laufwerk - s. 9.3.2 - vorhanden ist.)
- TV-Eingang und Tuner (ermöglicht TV und Radioempfang am PC, ansonsten Kauf
einer eigenen TV-Karte - z.B. von Hauppauge - erforderlich)
- Kompatibilität zu OpenGL und DirectX, den gebräuchlichsten
Grafikschnittstellen.
12.7.2 Soundkarten
Sorgen für die Klangausgabe und sind im Multimediazeitalter unbedingt
erforderlich. Sehr gute Karten sind bereits unter öS 2000,- erhältlich,
billige Modelle gibt es schon für öS 500,-
Soundkarten bestehen im wesentlichen aus:
- Aufnahme-/Wiedergabeteil (wichtig u.a. zum Abspeichern von Musik oder zur
Sprach-erkennung)
- Klangerzeugungsteil (zur Simulation von Orchester- u.a. Instrumenten, die
zuvor digitalisiert und auf der Karte abgespeichert wurden - man nennt diese
Klangbibliothek auch "Wavetable"; früher wurden diese Klänge synthetisch
hergestellt ("FM") und klangen entsprechend künstlich)
- Diverse Anschlüsse (LINE IN-, LINE OUT-, Lautsprecher- und
Mikrophonbuchsen) Gute Soundkarten sind weiters 3D-Sound und
Surroundsoundfähig und haben eine CD-Schnittstelle (d.h. man kann sie als
Controller für CD-Laufwerke verwenden und CD-Audio-Musik über die Soundkarte
auf Boxen oder eine Stereoanlage umleiten.)
Heutiger Standard für PC-Soundkarten ist der Soundblaster der Firma Creative
Labs mit dem Spitzenmodell "Soundblaster Live! Platinum"
Soundkarten gibt es für den ISA- und den PCI-Bus, wobei der PCI-Bus hier
nicht unbedingt notwendig ist, ähnlich wie bei Netzwerkkarten. Eine
PCI-Soundkarte entlastet allerdings den Prozessor, ist also vorzuziehen.
(Vgl. 11.3)
12.7.3 Lautsprecher-Boxen
Erforderlich für den kompletten Soundgenuss (wichtig für HiFi-Freaks,
Musiker und Computerspieler) sind selbstverständlich gute Boxen, am besten
ein Set aus 5 Satelliten und einem Subwoofer - solche Sets (speziell für
Computer) sind heute schon günstig (um öS 1.000,-) erhältlich und bieten
teils schon sehr gute Klang-Qualität. (z.B. Dolby Surround Ton)
12.7.4 Mikrofone
Dienen zur Aufzeichnung von Sprache (speziell für Spracherkennungssoftware
und zum Telefonieren in Netzwerken).
12.7.5 WebCams
Gemeint sind hiermit nicht Kameras zum Drehen von Urlaubsfilmen, sondern am
Monitor befestigte Geräte niedriger Bildqualität, die die Übertragung
bewegter Bilddaten über ein Netzwerk ermöglichen. So sind Bildkonferenzen
bzw. Bildtelefonate möglich. Die Bildqualität ist deshalb niedrig, weil
hochauflösende bewegte und großformatige Bilder nicht in Echtzeit über
Netzwerke (besonders über das Internet) übertragen werden können. (Auch
nicht mit ADSL).
13 Schnittstellen (Interfaces)
Oberbegriff für alle Übergangs- und Verbindungsteile, mit denen selbständig
arbeitende Funktionseinheiten eines Computers miteinander verbunden sind.
Man unterscheidet in interne und externe Schnittstellen. Interne verbinden
etwa CPU und RAM, externe etwa Motherboard mit Drucker. Die
Datentransferrate wird in bps (bits per second) gemessen.
13.1 Die serielle Schnittstelle
(auch RS 232C oder V.24 Schnittstelle genannt) Schnittstellen-Standard mit
25- oder 9-poliger Verbindung für die serielle Übertragung von Bits (daher
niedrige Übertragungsraten).
Datenaustausch ist in beide Richtungen möglich.
Auch als "COM-Ports" bezeichnet. An diesen Anschlüsse werden in der Regel
die Maus, ein Nullmodem-Kabel, und / oder das Modem angeschlossen. Speziell
beim Anschluss eines Modems, sollte ein COM-Port mit einem besonderen
Baustein verwendet werden: "UART" mit FIFO". Damit sind höhere
Übertragungsraten möglich als mit Standard-Schnittstellen.
13.2 Die parallele Schnittstelle
(auch Centronics-Schnittstelle) Schnittstelle am Computer, die im Gegensatz
zur seriellen Schnittstelle die Datenübertragung auf acht Leitungen (also
mit einer Übertragung von 8 Bits gleichzeitig) unterstützt. An die parallele
Schnittstelle wird in der Regel der Drucker angeschlossen, oder auch ein
ZIP-Laufwerk.
Relativ schnell, aber Kabel maximal 5-6 m lang - Informationen nur in eine
Richtung sendbar.
13.3 ECP (Extended Capability Port)
Eine Erweiterung der parallelen Schnittstelle, die den Anschluss mehrerer
Geräte an den Parallelport sowie eine insgesamt höhere Übertragungsrate
zulässt. Moderne Drucker können meist im sogenannten ECP-Modus betrieben
werden, sofern der Rechner dies unterstützt. Datenübertragung ist hier auch
in beide Richtungen möglich.
13.4 USB (Universal Serial Bus)
Neues System zur Ansteuerung aller möglichen Peripherie (Monitor, Maus,
Scanner, ...). Ein moderner PC hat zumeist zwei USB Anschlüsse. Stecker und
Buchse für alle USB-Geräte gleich.
Vorteile:
- Plug & Play: Windows 98 / 2000 erkennt die Geräte sofort nach dem
Einstecken, installiert automatisch die passenden Treiber und macht die
Hardware betriebsfertig.
- Hot-Plug-Fähigkeit: Wenn ein USB-Gerät an- oder abgesteckt werden soll,
muss der Rechner vorher nicht mehr heruntergefahren werden.
- An einer USB-Schnittstelle finden bis zu 127 Geräte Anschluss. Zum
Anschluss von mehr als zwei Geräten wird daher ein Verteiler (USB-Hub, teils
in USB-Monitoren integriert) benötigt.
- Die maximale Datenrate beträgt 1,5 oder 12 MBit/s (USB 1.1) - je nachdem,
welche der beiden Geschwindigkeiten das angeschlossene Gerät erfordert.
- "Daisy-Chaining" (Geräte können nacheinander angesteckt werden, nicht mehr
jedes einzelne muss mit dem PC verbunden sein).
Heute sind schon zahlreiche Geräte (ZIP-Laufwerke, Monitore, Joysticks,
Mäuse,...) in USB-Versionen lieferbar.
13.5 Firewire (IEEE 1394)
Eine von Apple entwickelte recht neue serielle Schnittstellentechnologie für
Computer- und Videogeräte zur Übertragung digitaler Daten mit bis zu 400
Mbit / Sek.
14 Lokale Netzwerke (LAN)
Mindestens zwei Arbeitsplätze sind notwendig, eine Netzwerkkarte pro
Arbeitsplatz, Kabelverbindungen und ein netzwerkfähiges Betriebssystem.
Die Karte und die Kabel übernehmen die Verbindung der Stationen, die Daten
werden von der Karte über sogenannte Netzwerktreiber gesendet und empfangen
und in eine über die Kabel transportierbare Form umgewandelt. Das
Betriebssystem schließlich organisiert die Daten und regelt die Zugriffe.
Auf einem Server kann sich eventuell auch ein eigenes Netzwerkbetriebssystem
befinden, das nicht dasselbe sein muss wie das auf den Terminals. (Etwa ein
zentraler Server mit Windows 2000 mit mehreren angeschlossenen Windows 98
Workstations).
14.1 Vorteile eines LAN
Ein LAN besitzt zahlreiche Vorteile gegenüber isolierten Systemen:
? Gemeinsamer Zugriff auf die Peripherie
Nicht jeder Arbeitsplatz benötigt beispielsweise einen Laserdrucker,
Plotter, Fax,... - d.h. erhebliche Platz- und Geldeinsparungen möglich.
? Gemeinsamer Zugriff auf die Software
Es ist nicht mehr notwendig, umfangreiche Software auf jedem Arbeitsplatz zu
installieren. Diese befindet sich auf einem zentralen Rechner (Server).
Individuelle Einstellungen (Anordnung der Icons am Bildschirm, Namen der
zuletzt gespeicherten Dateien, etc.) werden wie gewohnt auf den einzelnen
Arbeitsplätzen gespeichert.
Gleichzeitige Zugriffe auf Daten werden durch eine sogenannte
Locking-Funktion verhindert. Dazu benötigt man allerdings spezielle
Netzwerkversionen der Software.
? Gemeinsamer Zugriff auf Informationen
Alle Netzwerkteilnehmer können auf eine zentrale Datenbank zugreifen. Alle
Informationen stehen so jedem berechtigten Benutzer jederzeit zur Verfügung.
? Zentrale Verwaltung
Gemeinsam genutzte Software, Peripherie und Daten müssen nur von einer
Person (Administrator) gewartet und gepflegt werden. (Dieser muss dafür aber
entsprechend ausgebildet sein, da Netzwerkadministration längere
Einarbeitungszeit voraussetzt.)
? Billige Terminals
Die einzelnen Arbeitsplatzrechner in einem Netz (Terminals) müssen nicht die
modernsten, schnellsten Geräte sein, da der Server einen gewissen Teil der
Arbeit verrichten kann.
? Elektronische Post (E-Mail)
Ersatz für Telefon, Papier und Bleistift. Zusendung in wenigen Sekunden
möglich; falls der Empfänger nicht anwesend ist, bleibt die Nachricht für
ihn gespeichert.
? Workgroup-Computing
Neues, arbeitsorganisatorisches Prinzip. Mehrere Mitarbeiter an einem
Projekt bearbeiten es gleichzeitig, ohne dauernd Disketten austauschen zu
müssen - der Datenaustausch erfolgt über das Netzwerk; jeder ist immer auf
dem neuesten Stand.
14.2 LAN-Typen
Bei einem LAN unterscheidet man grob zwei Typen von Netzwerken:
14.2.1 Peer-to-Peer
(= "gleicher zu gleichem"); Jeder Rechner ist gleichzeitig Server und
Arbeitsstation. Da auf jedem Rechner definiert werden muss, welche
Nutzungsrechte jeder andere Rechner hat, ist diese Lösung nur für kleinere
Netzwerke geeignet. Windows 3.11 (Windows für Workgroups) bot beispielsweise
schon diese Möglichkeit. Mit Windows 98 lassen sich Peer-to-Peer Netze
relativ komfortabel einrichten.
14.2.2 Client und Server
Zentrale Einheit (Server) regelt Zugriffe auf Software, Daten und
Peripherie. Dieses System bietet alle in 14.1 erwähnten Vorteile. Bei
komplizierten Netzen übernimmt der Server ausschließlich die
Netzwerksteuerung und -verwaltung und übernimmt keine
Arbeitsstationsaufgaben, wie bei einem Peer-to-Peer LAN.
14.3 Bestandteile eines Netzwerks
Eine Kabelverbindung zwischen Rechnern alleine reicht freilich nicht für ein
Netzwerk aus. Man benötigt folgende Komponenten:
? Netzwerkhardware
Stellt physikalische Verbindung her.
- Kabel
- Netzwerkkarten
- Hub (Knotenpunkt eines Sternförmigen (s.u.) Netzes - dient als Verteiler
und Signal-verstärker.)
- Router (verbindet räumlich getrennte LANs über eine
Telekommunikationsleitung)
Es gibt bereits drahtlose Netzwerkverbindungen (z.B. die Diamond HomeFree
Netzwerkkarte - LAN über Funk!)
? Netzwerksoftware
Netzwerkbetriebssystem mit für den Betrieb notwendigen Funktionen
(File-Serving, Printer-Serving, Drucker-Spooling, Sicherheitsabfragen für
Passwörter und Dateischutz, E-Mail, etc.)
Früher war Novell NetWare marktführend, mittlerweile dominieren Windows NT
und UNIX den Netzwerkmarkt.
14.4 Netzwerktopologien
Eine weitere Klassifikation beim LAN ist die sogenannte Netzwerk-Topologie,
die Anordnung der Verbindungen zwischen den einzelnen Computern. Man
unterscheidet in:
14.4.1 Bus-Topologie
Alle Rechner (inklusive dem Server) hängen an einem Kabel, welches aber
keinen Ring bildet. An den beiden Enden des Kabels muss sich ein sogenannter
Endwiderstand befinden. (siehe Skizze)
Der Auf- und Abbau der Verbindung, die korrekte Adressierung der
Informationen und deren Aufteilung in einzelne "Datenpakete" geschieht durch
das "Protokoll" TCP/IP (Transmission Control Protocol/Internet Protocol)
Vorteile: leichtes Anschließen neuer Stationen, keine Störung bei Ausfall
einer Station.
Nachteile: Immer nur eine Nachricht auf der Leitung unterwegs.
Ethernet ist das verbreitetste Netzwerk mit Busstruktur. (Eine
Ethernet-Karte ist schon um gut 100,- erhältlich.)
14.4.2 Stern-Topologie
Alle Information läuft über einen zentralen Vermittler (siehe Skizze), es
gibt keine direkte Verbindung zwischen den einzelnen Terminals. Die
Installation ist komplizierter als ein Bus-Netz, es wird zusätzlich noch ein
Hub benötigt.
Vorteile: leicht erweiterbar, kaum Störung bei Ausfall einer Station.
Nachteile: Totalausfall bei Ausfall des Zentralrechners, aufwendige
Installation und Verkabelung.
Skizze: Stern-Topologie
14.4.3 Ringtopologie
Zentralstation ist hier nicht unbedingt erforderlich, die Terminals hängen
an einem Ring.
(siehe Skizze rechts)
Beispiel: IBM-Token-Ring.
Vorteile: leicht erweiterbar, geringe Leitungszahl, kein Zentralrechner
erforderlich, Datentransport sehr effizient.
Nachteile: Totalausfall bei Ausfall einer Leitung, Übertra-gungsdauer von
Entfernung abhängig.