Arbeitsblatt: ICT INformatik

Material-Details

Vereinfachte Gesamtübersicht über ICT
Informatik
Gemischte Themen
10. Schuljahr
148 Seiten

Statistik

130171
967
23
01.05.2014

Autor/in

Pascale Vaucher Mauron
Land: Schweiz
Registriert vor 2006

Downloads Arbeitsblätter / Lösungen / Zusatzmaterial

Die Download-Funktion steht nur registrierten, eingeloggten Benutzern/Benutzerinnen zur Verfügung.

Textauszüge aus dem Inhalt:

Einführung in die Informations- und Kommunikationstechnologien Begleit-Skript zum Unterricht Einführung ICT Inhaltsverzeichnis: Inhaltsverzeichnis: 2 1. Einleitung 7 2. Informatik-Grundlagen . 8 2.1 Was Informatik NICHT ist . 8 2.2 Was ist Informatik und woher kommt der Begriff 8 2.2.1 Die ursprüngliche Bedeutung 8 2.2.2 Verwendung des Begriffs heute 8 2.3 Die Disziplinen der Informatik . 9 2.3.1 Übersicht . 9 2.3.2 Einige Erläuterungen zu den einzelnen Disziplinen . 9 2.3.2.a Theoretische Informatik 9 2.3.2.b Praktische Informatik und technische Informatik. 10 2.4 Einige Begriffe aus der Welt der Informatik 11 2.4.1 Hardware und Software . 11 2.4.1.a Harte Ware. 11 2.4.1.b Softe (weiche) Ware . 11 2.4.2 Das Betriebssystem 11 2.4.3 Algorithmus . 12 2.5 Ein wenig Mathematik 14 2.5.1 Verschiedene Zahlensysteme . 14 2.5.1.a Unser Dezimal-System. 14 2.5.1.b Ein Zahlensystem mit nur zwei Zahlen . 15 2.5.1.c Das Hexadezimal-System 17 2.5.2 Weshalb ein Binäres Zahlensystem? 18 2.5.3 Anzahl Bits oder ich krieg gleich Zustände! . 18 2.5.4 Codierung von Information 21 2.5.4.a Codierung von Zahlen mit Binärzahlen . 21 2.5.4.b Codierung von Buchstaben mit Binärzahlen . 22 2.5.4.c Codierung von Bildern 23 2.5.4.d Codierung von Klängen oder Musik 26 3. Computerwissen 27 3.1 Was ist ein Computer . 27 3.2 Die Entstehungs-Geschichte der Computer . 28 3.2.1 Die Geschichte des Rechnens 28 3.2.2 Erste Ansätze für Rechenmaschinen 29 3.2.2.a Der Abakus ca. 1100 v. Chr. 29 3.2.2.b Rechenstäbchen von 1617 (John Napier Laird of Merchiston) . 29 3.2.2.c Rechenschieber von 1620 (William Oughtred) . 30 3.2.2.d Rechenmaschine von 1623 (Wilhelm Schickard) 30 3.2.2.e Addiermaschine von 1642 (Blaise Pascal) . 30 3.2.2.f Rechenmaschine von 1673 (Gottfried Wilhelm Leibniz) . 31 3.2.3 Von der Lochkarte zum MARK 1 . 32 3.2.3.a Lochkarte 1805 (Joseph-Marie Jacquard) 32 3.2.3.b Analytische Maschine 1833 (Charles Babbage) . 32 3.2.3.c Lochkartenmaschine 1886 (Hermann Hollerith) . 32 3.2.3.d Zuse Z3 1934 1941 (Konrad Zuse) 33 3.2.3.e Mark 1939 1944 (Howard H. Aiken) . 33 3.2.4 Die verschiedenen Computergenerationen. 34 3.2.4.a 1946 1952 Neumann-Maschine (John von Neumann) . 34 3.2.4.b 1946 Eniac 1. Generation (John P. Eckert und John W. Mauchly) 34 3.2.4.c 1955 1960 Tradic 2. Generation (J.H. Felker) . 35 Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 2 148 Einführung ICT 3.2.4.d 1962 1970 Integrierte Schaltkreise 3. Generation . 35 3.2.4.e 1968 Hoch integrierte Schaltkreise 4. Generation . 36 3.2.4.f 1980 Cray-Computer 5. Generation 36 3.2.5 Der Schritt vom Grosscomputer zum PC . 37 3.2.5.a Die ersten Homecomputer (1974) 37 3.2.5.b Der Apple-Computer (1977) . 38 3.2.5.c Der IBM-Personalcomputer (1981) . 38 3.2.5.d Der Apple Macintosh (1987) . 39 3.2.5.e Die Vernetzung von Computern (ab 1985) . 39 3.3 Die Funktionsweise des Computers . 40 3.3.1 Das EVA-Prinzip . 40 3.3.1.a Eingaben 41 3.3.1.b Verarbeitung 41 3.3.1.c Ausgabe . 41 3.3.2 Der Aufbau eines Computers (ein wenig Hardware-Kunde) 42 3.3.2.a Zentraleinheit . 42 3.3.2.b Der Prozessor 43 3.3.2.c Arbeitsspeicher (RAM) . 43 3.3.2.d Anschlüsse Schnittstellen . 43 3.3.2.e Eingabegeräte 44 3.3.2.f Ausgabegeräte 44 3.4 Computer-Netzwerke . 45 3.4.1 Grundbegriffe 45 3.4.1.a Was ist ein Netzwerk? 45 3.4.1.b Netzwerktopologien 45 3.4.1.c Die Hardware im Netzwerk . 47 3.4.1.d Wie die Daten im Netz transportiert werden: Signale 48 3.4.1.e Die Sache mit den Adressen 48 3.4.1.f Die Sache mit den Paketen . 49 3.4.1.g Was ist ein Server? 49 3.4.1.h Die Kommunikation im Netzwerk: Protokolle und Ports 50 3.4.1.i Sicherheit und Rechte im Netz. 50 3.4.2 Lokale Netzwerke 51 3.4.2.a Weshalb und wozu ein Netzwerk? 51 3.4.2.b Daten speichern im Netz: Netzlaufwerke 51 3.4.3 Das Internet 52 3.4.3.a Die Geschichte des Internet . 52 3.4.3.b Internet heute . 52 3.4.3.c Die Funktion des Providers 52 3.4.3.d Das WWW ist nicht das Internet . 53 3.4.3.e Die Sache mit den Adressen im Internet und WWW 54 4. Tabellenkalkulation 55 4.1 Was ist eine Tabellenkalkulation? 55 4.2 Excel, Open Calc und andere . 55 4.3 Wozu eine Tabellenkalkulation? . 56 4.4 Grundlagen 57 4.4.1 Vorausgesetztes Wissen/Können 57 4.4.2 Aufbau einer Excel-Tabelle . 58 4.5 Texte und Zahlen in der Tabellenkalkulation 59 4.6 Die Sache mit dem Format . 60 4.6.1 Aussehen verändern und Währungen verwenden . 60 4.6.2 Daten und Uhrzeiten in Excel 61 4.6.3 Vorsicht mit Prozenten 61 Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 3 148 Einführung ICT 4.7 Nützliche Hinweise zur Handhabung 63 4.7.1 Bewegen im Tabellenblatt und Markieren von Zellen 63 4.7.2 Kopieren und einfügen 63 4.7.3 Automatisch ausfüllen . 64 4.8 Formeln und Funktionen in Excel . 65 4.8.1 Was ist eine Formel. 65 4.8.2 Formeln eingeben . 65 4.8.3 Die 4 Grundoperationen 66 4.8.4 Funktionen in EXCEL 66 4.8.5 Wie kommt die Funktion aufs Blatt? 67 4.8.5.a von Hand 67 4.8.5.b mit einem Assistenten 67 4.8.5.c Summen-Symbol 68 4.8.6 Die nützlichsten Funktionen etwas genauer betrachtet 69 4.8.6.a SUMME() . 69 4.8.6.b MITTELWERT() . 71 4.8.6.c RUNDEN() . 71 4.8.6.d WENN() 71 4.8.6.e SVERWEIS() 72 4.8.6.f MIN() . 73 4.8.6.g MAX() . 74 4.8.6.h ZUFALLSZAHL() 74 4.9 Kopieren und Einfügen mit Formeln . 75 4.10 Relative und absolute Bezüge (Adressen) 76 4.11 Bedingte Formatierung . 77 4.12 Diagramme in Excel oder CALC . 80 4.12.1 Tabelle für unser Übungs-Beispiel. 81 4.12.2 Schnelldurchgang . 81 4.12.3 Schnelldurchgang EXCEL 2010 86 4.12.4 Die verschiedenen Diagramm-Arten (Diagramm-Typen) . 88 4.12.4.a Einige weitere Säulen und Balkendiagramme 88 4.12.4.b Kuchen-Diagramme . 89 4.12.4.c Linien-Diagramme 90 5. Datenbanken . 91 5.1 Datenbank Grundlagen 91 5.1.1 Was sind Daten und was Informationen? 91 5.1.2 Wie speichert man Daten elektronisch 91 5.1.3 Tabellen, Beziehungen, Datenmodelle und Normalformen 91 5.1.3.a Daten mit Tabelle darstellen . 91 5.1.3.b Daten mit Hilfe mehrerer Tabellen darstellen . 92 5.1.4 Wichtige Begriffe . 95 5.1.4.a Relationale Datenbanken und Normalform 95 5.1.4.b Tabellen, Zeilen und Spalten 95 5.1.4.c Beziehungen 96 5.1.5 Wozu das alles? 97 5.2 Datenbanken mit ACCESS. 98 5.2.1 Einleitung 98 5.2.1.a Vorgehen . 98 5.2.1.b ACCESS ist nicht EXCEL . 98 5.2.2 Erster Schritt: Anlegen einer neuen Datenbank . 99 5.2.2.a ACESS Start-Bildschirm . 99 5.2.2.b Die Steuerzentrale (Version 2003 oder älter) . 101 5.2.2.c Die Steuerzentrale (Version 2007und neuer) . 102 Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 4 148 Einführung ICT 5.2.2.d Erklärung zu den einzelnen Begriffen . 102 5.2.3 Schritt 2: Erstellen einer neuen Tabelle . 103 5.2.3.a Tabelle kreieren und die Felder definieren . 103 5.2.3.b Die Datentypen festlegen . 104 5.2.3.c Zahlenformate festlegen. 105 5.2.3.d Standardwert 105 5.2.3.e Leer oder nicht leer 106 5.2.3.f Indiziert oder nicht . 107 5.2.3.g Nachschlagen von Feldwerten . 107 5.2.3.h Die Sache mit dem Primärschlüssel . 110 5.2.3.i Die Tabelle speichern 110 5.2.4 Beziehungen . 111 5.2.5 Ein paar zusätzliche Erklärungen 112 5.2.5.a Nachträgliches Verschieben der Datenbank . 112 5.2.5.b Entwurfsansicht vs. Datenansicht . 112 5.2.6 Schritt 3: Daten eingeben 113 5.2.7 Abfragen . 114 5.2.7.a Was sind Abfragen . 114 5.2.7.b So erstellt man in ACCESS eine Abfrage. 114 5.2.7.c Abfragen mit Kriterien. 117 5.2.7.d Kriterien mit Platzhaltern 118 5.2.7.e Abfragen mit Parametern . 118 5.2.7.f Berechnungen in Abfragen 119 5.2.8 Berichte . 122 5.2.8.a Was und wozu sind Berichte? 122 5.2.8.b Wie erstellt man in ACCESS Berichte? 122 5.2.9 Formulare in ACCESS 124 6. Makro-Programmierung in Excel . 125 6.1 Was und wozu ist ein Makro? . 125 6.2 Erster Schritt: Ein Makro aufzeichnen (Workshop) . 125 6.3 Wie ist ein Makro aufgebaut? . 129 6.3.1 Eröffnung und Abschluss 129 6.3.2 Ablauf des Makros 129 6.3.3 Analyse unseres Beispiel-Makros 129 6.4 Ein Makro selber erstellen 131 6.4.1 Grundsätzliches Vorgehen 131 6.4.2 Einige Begriffe . 131 6.4.2.a Objekte und objekt-orientierte Programmierung . 131 6.4.2.b Variable 132 6.4.2.c Datentypen. 132 6.4.3 Einige Makro-Kochrezepte 133 6.4.3.a Markieren einer Zelle 133 6.4.3.b Einen ganzen Bereich markieren . 133 6.4.3.c Den Wert einer Zelle verändern . 133 6.4.3.d In die derzeit aktive Zelle schreiben . 134 6.4.3.e Den Inhalt einer Zelle auslesen 135 6.4.3.f Eine Meldung auf dem Bildschirm ausgeben . 135 6.4.3.g Vom Benutzer eine Eingabe verlangen 135 6.4.3.h Ein bestimmtes Arbeitsblatt anwählen 136 6.4.3.i Eine Formel in eine Zelle schreiben . 137 6.4.4 Kontroll-Strukturen 137 6.4.4.a Wenn Dann sonst aber auch . 137 6.4.4.b FOR von hier bis dort . 139 Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 5 148 Einführung ICT 6.4.4.c FOR mit Schrittweite 140 6.5 Einer Schaltfläche ein Makro zuordnen 141 ANHANG I: EXCEL Shortcuts: 144 ANHANG II: Markieren mit den Tasten: 146 ABBILDUNGSVERZEICHNIS: . 147 Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 6 148 Einführung ICT 1. Einleitung Dies ist kein Lehrbuch sondern ein Begleit-Skript zum Unterricht. Es ersetzt weder den Unterricht, noch entbindet es die Schüler davon, sich selber Notizen zu machen. Das vorliegende Dokument enthält keine Übungen oder Lernkontrollen. Diese sind in einem eigenen Übungsbuch zusammengefasst. Der Theorie-Teil (Informatik und Computer Grund-Wissen) ist als reine Wissenssammlung verfasst. Der zweite Teil (Tabellenkalkulation und Datenbanken) enthält sowohl theoretisches Wissen, als auch kurze Workshops. Die vorliegende zweite Fassung des Skripts versucht, sich soweit möglich von den verschiedenen Office-Versionen zu entkoppeln. Es wird vermehrt versionsunabhängiges Know-How vermittelt. Doch leider ist dies nicht immer und nicht bei allen Themen möglich. Die stark versions-geprägte Handhabung der Programme EXCEL und ACCESS wird deshalb vor allem im Kurs geübt. Die Schüler sind gehalten, sich hierzu selber Notizen zu machen und das Hilfe-System von Office zu verwenden. Wie bereits erwähnt ersetzt dieses Skript nicht den Unterricht. Die Beschreibungen sind knapp gehalten und beschränken sich auf das Gerüst dessen, was im Unterricht vermittelt wird. Ausschliesslich die drei Pfeiler, Unterricht, Skript und Übungen ergeben zusammen einen vollständigen Kurs. Für Leser, die sich vertieft mit der Materie befassen möchten, empfehle ich zusätzliche „echte Lehrbücher, wie sie im Buchhandel zahlreich erhältlich sind. Der vorliegende Kurs ist bewusst einfach formuliert. Der wissenschaftlichen Präzision wird weniger Gewicht beigemessen als dem Bestreben, den Lesern die wichtigsten Zusammenhänge auf verständliche Weise näher zu bringen. So wird oftmals bis an die Grenzen des zulässigen vereinfacht oder bei Aufzählungen auf Vollständigkeit verzichtet. Frei nach dem Motto: Weniger ist mehr. Wenn es mit dem Kurs gelingt, bei einigen KursteilnehmerInnen das Interesse und die Freude an der Materie zu wecken, ist ein wichtiges Ziel erreicht. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 7 148 Einführung ICT 2. Informatik-Grundlagen 2.1 Was Informatik NICHT ist o o o Informatik ist nicht Microsoft!!! Informatik ist nicht Office!!! Informatik ist nicht Programmierung!!! Informatik ist nicht „PCs zusammenbauen Informatik ist nicht „Software installieren Informatik ist nicht „eine Web-Site programmieren und noch so vieles ist NICHT Informatik 2.2 Was ist Informatik und woher kommt der Begriff 2.2.1 Die ursprüngliche Bedeutung Hier ein Auszug aus Wikipedia (Stand Januar 2009): Informatik ist die Wissenschaft von der systematischen Verarbeitung von Informationen, insbesondere der automatischen Verarbeitung mit Hilfe von Rechenanlagen. Historisch hat sich die Informatik als Wissenschaft aus der Mathematik entwickelt, während die Entwicklung der ersten Rechenanlagen ihre Ursprünge in der Elektrotechnik und Nachrichtentechnik hat. Der Begriff Informatik bezieht sich also ursprünglich auf eine Wissenschaft. Im Begriff Informatik steckt auch der Begriff „Information. Eine Wissenschaft, welche untersucht, was Information ist und wie man Information verarbeiten kann. 2.2.2 Verwendung des Begriffs heute In der breiten Bevölkerung wird heute der Begriff Informatik für alles verwendet, was auch nur im Entferntesten etwas mit Computern zu tun hat. Dies ist bedauerlich, aber nicht mehr zu ändern. Generell muss aber festgehalten werden, dass Informatik ein sehr breites Feld ist und nahezu alle unsere Lebensbereiche erreicht hat. Kein TV-Gerät kommt heute ohne irgendwelche „Produkte aus der Informatik aus. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 8 148 Einführung ICT 2.3 Die Disziplinen der Informatik 2.3.1 Übersicht Die Informatik unterteilt sich im Wesentlichen in folgende Teilgebiete: o o Theoretische Informatik Praktische Informatik Technische Informatik angewandte Informatik Unten stehende Abbildung illustriert diese Aufteilung und zeigt zugleich die Stellung jenes Teils der Informatik, den man heute in der öffentlichen Meinung vor allem als Informatik wahrnimmt: die angewandte Informatik. Abbildung 1: Eine Mögliche Aufteilung der Informatik in 4 Disziplinen. Bemerkung: Neben diesen Hauptsäulen gibt es noch weitere Bereiche. Nachfolgend ein paar Beispiele: Didaktik der Informatik Künstliche Intelligenz Informatik und Gesellschaft 2.3.2 Einige Erläuterungen zu den einzelnen Disziplinen 2.3.2.a Theoretische Informatik Die theoretische Informatik kann als Grundlage für die anderen Teilgebiete betrachtet werden. Sie liefert fundamentale Erkenntnisse betreffend Lösbarkeit und Komplexität von Problemen und erarbeitet Grundlagen für die Modellierung von Problemen mittels Automaten und formalen Sprachen. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 9 148 Einführung ICT Die theoretische Informatik beinhaltet sehr viel Mathematik. Ein kleines Beispiel gefällig? Es handelt sich hier um eine Formel aus einer Arbeit namens „Probabilistic Argumentation Systems1. Das Paper beschäftigt sich mit der Frage, welche Schlüsse aus Grundlagen gezogen werden können, die nur teilweise gesichert sind. Etwas, was wir Menschen instinktiv täglich tun, was für Maschinen aber nicht ganz so einfach ist. 2.3.2.b Praktische Informatik und technische Informatik Auf der theoretischen Informatik bauen die praktische Informatik und die technische Informatik auf. Sie beschäftigen sich mit zentralen Problemen der Informationsverarbeitung und bieten pragmatisch anwendbare Lösungen. Hierbei sind diese beiden Teilgebiete eng ineinander verzahnt und unterscheiden sich nur durch das Maß der Nähe zur Mikroelektronik. Die praktische Informatik beschäftigt sich mit der Lösung von konkreten Problemen der Informatik und insbesondere der Entwicklung von Computerprogrammen. Sie liefert die grundlegenden Konzepte zur Lösung von Standardaufgaben, wie die Speicherung und Verwaltung der Informationen mittels Datenstrukturen. Einen wichtigen Stellenwert haben dabei die Algorithmen (s. hierzu weiter unten die Erklärung des Begriffs). Die technische Informatik befasst sich mit den hardwareseitigen Grundlagen der Informatik wie etwa der Mikroprozessortechnik, Rechnerarchitekturen und verteilten Systemen. Damit stellt sie ein Bindeglied zur Elektrotechnik dar. Die Rechnerarchitektur ist die Wissenschaft, die Konzepte für den Bau von Computern erforscht. Hier wird das Zusammenspiel von Mikroprozessor, Arbeitsspeicher sowie Controller und Peripherie definiert und verbessert. Ein weiteres wichtiges Gebiet ist die Rechnerkommunikation. Diese ermöglicht den elektronischen Datenaustausch zwischen Computern und stellt damit die technische Grundlage des Internets dar. 1 Dr. B. Anrig, Universität Freiburg [2004] Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 10 148 Einführung ICT 2.4 Einige Begriffe aus der Welt der Informatik 2.4.1 Hardware und Software 2.4.1.a Harte Ware Unter Hardware werden alle physikalischen Teile in der EDV zusammengefasst, also alle Geräte, die man anfassen kann: Tastatur, Maus, Bildschirm, Computer, Drucker usw. 2.4.1.b Softe (weiche) Ware Der Begriff Software fasst alles zusammen, was nicht direkt physisch existiert. Dies sind beispielsweise Computerprogramme. Die Software kann in verschiedene Kategorien eingeteilt werden: Betriebssystem-Software Anwendungs-Programme Firmware und Middleware Was ein Betriebssystem ist, werden wir später noch sehen. Die AnwendungsProgramme kennen wir alle. Sie dienen zur Erledigung spezifischer Aufgaben, wie beispielsweise Texte schreiben. Beispiele für Software sind Textverarbeitung, Datenbanken, Tabellenkalkulation und so weiter. Die letzte Kategorie – die Firmware ist eine Art Zwischen-Ding, welche uns an dieser Stelle nicht interessiert. Sie ist der Vollständigkeit halber aufgeführt. 2.4.2 Das Betriebssystem Als gewöhnliche Benutzer könnten wir mit all der Hardware nicht viel machen. Benutzer Betriebssystem Hardware-Abstraktions-Layer: HAL diverse Hardware: Prozessor, RAM, CD, HD, Graphik, Sound, Abbildung 2: Das Betriebs-System als Vermittler zwischen Hardware und Benutzer Die Hardware funktioniert mit Strom und Spannungen. Irgendwelche Signale werden durch irgendwelche Leitungen und Chips befördert. Müsste der Benutzer Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 11 148 Einführung ICT mit Schaltern und Kabeln die Signale selber steuern, wären die meisten Benutzer wohl überfordert. Deshalb wurde eine Art Vermittler programmiert, der zwischen der Hardware und uns „normalen Menschen vermittelt. In Tat und Wahrheit ist alles ein wenig komplizierter und es steckt beispielsweise noch eine so genannte „Hardware-Abstraction-Layer (HAL) dazwischen, die standardisierte Schnittstellen (Konventionen, Regeln, ) bietet, auf die das Betriebssystem (s. unten) zugreifen kann. Das alles braucht uns aber nicht zu interessieren. Wenn wir es genauer wissen wollen, lesen wir bei Wikipedia nach: Ein Betriebssystem ist die Software, die die Verwendung (den Betrieb) eines Computers ermöglicht. Es verwaltet Betriebsmittel wie Speicher, Ein- und Ausgabegeräte und steuert die Ausführung von Programmen. Betriebssystem heißt auf Englisch operating system (OS). Dieser englische Ausdruck kennzeichnet den Sinn und Zweck: Die in den Anfängen der Computer stark mit schematischen und fehlerträchtigen Arbeiten beschäftigten Operatoren schrieben Programme, um sich die Arbeit zu erleichtern; diese wurden nach und nach zum operating system zusammengefasst. Eines der wohl bekanntesten Betriebssysteme dürfte Windows sein. Auch Linux und Mac OS sind nicht ganz unbekannt. Doch es gibt eine ganze Anzahl anderer Betriebssysteme: Solaris, Unix, OS/2, BSD Linux, ZETA, DOS, BATCH-11/DOS11, PEARL Operating System (POS), RSTS/E, VAX, MicroVAX, VMS, OS-9 und so weiter. Und welches sind die Aufgaben eines Betriebssystems? Schnittstelle zum Benutzer Maus, Tastatur, Bildschirm, Drucker, Festplatten, CD- und Diskettenlaufwerke verwalten Programme laden, starten und unterbrechen Zuteilung von Prozessorzeit für die laufenden Programme Zuteilung von Arbeitsspeicherplatz für die laufenden Programme Ein- und Ausgabe koordinieren, Hardware verwalten Fehlerbehandlung Dienstleistungsprogramme (z. B. zum Verwalten von Dateien) zur Verfügung stellen von Zeit zu Zeit abstürzen ;-) und und und . 2.4.3 Algorithmus Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 12 148 Einführung ICT Unter einem Algorithmus (auch Lösungsverfahren) versteht man eine genau definierte Handlungsvorschrift zur Lösung eines Problems oder einer bestimmten Art von Problemen in endlich vielen Schritten. Im täglichen Leben lassen sich leicht Beispiele für Algorithmen finden: Zum Beispiel ist ein Kochrezept eine Art Algorithmus – zumindest, wenn alle Angaben genau genug sind und es für alle Teilaufgaben, wie beispielsweise Braten oder Rühren, ebenfalls Algorithmen gibt. Auch Reparatur- und Gebrauchsanleitungen oder Hilfen zum Ausfüllen von Formularen sind so etwas wie Algorithmen. Algorithmen sind eines der zentralen Themen der Informatik und Mathematik. Sie sind Gegenstand einiger Spezialgebiete der Theoretischen Informatik, der Komplexitätstheorie und der Berechenbarkeitstheorie. In Form von Computerprogrammen und elektronischen Schaltkreisen steuern sie Computer und andere Maschinen. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 13 148 Einführung ICT 2.5 Ein wenig Mathematik Wozu Mathematik? Die Informatik basiert auf sehr komplexen mathematischen Modellen und wer sich auch nur ein wenig vertieft mit Informatik beschäftigen will, kommt um einige Mathematik nicht herum. Nachfolgend werden ein paar wenige Themen ganz knapp „angekratzt. 2.5.1 Verschiedene Zahlensysteme 2.5.1.a Unser Dezimal-System Was ist ein Zahlensystem? Nehmen wir unser dezimales Zahlensystem als Beispiel. Dezimal bedeutet, dass unser Zahlensystem 10 Symbole hat: 0 1 2 3 4 5 6 7 8 9 Mit diesen zehn Symbolen schaffen wir es, zu zählen – und zwar weiter, als nur bis 9. Und wie machen wir das? Wie oben aufgezeigt, zählen wir zunächst von 0 bis 9. Danach merken wir uns, dass der erste Zehner-Block „abgezählt ist und schreiben uns das in Form einer „Zehner-Stelle auf (10 1 mal zehn plus 0): 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 So wird an der hintersten Stelle (rechts) immer von 0 bis Neun gezählt. Wenn Neun erreicht ist, wird die nächst-höhere (Zehner-) Stelle um eins erhöht und hinten wieder bei Null begonnen. Dies geht so weiter, bis die Zehner-Stelle ebenfalls bei 9 angelangt (90). Danach wird ein letztes Mal von 0 bis 9 gezählt und dann (bei 99) wird eine neue „Hunderter-Stelle eingeführt und auf 1 gesetzt. Die hinteren beiden Stellen werden auf 0 gesetzt (dies ergibt 100). Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 14 148 Einführung ICT Damit sind wir im Stande, sämtliche Zahlen bis Unendlich darzustellen: 0,1,2,3,4,5,6,7,8,9,10,11,12, ., 1509,1510,1511, ., 999999, Natürlich sind auch negative und Dezimalzahlen, wie beispielsweise -290 oder 254.9 darstellbar. Dies ist unser Zahlensystem und all das oben beschriebene machen wir fast instinktiv jeden Tag (mussten es aber irgendwann mal lernen). 2.5.1.b Ein Zahlensystem mit nur zwei Zahlen Es ist vielleicht Zufall, wir dass auch 10 Finger haben und dass wir mit diesen gelernt haben zu zählen. Man stelle sich nun aber eine Spezies vor, die nur 2 Finger hat. Ein Zahlensystem mit nur zwei Symbolen wäre zwar analog aufgebaut, hätte aber nur die Symbole 0 und 1. Wie würde man nun auf diese Weise zählen: 0, 1, 10, 11, 100, 101, 110, 111, 1000, 1001, 1010, und so weiter. Das Prinzip ist dasselbe. Wenn die hinterste Stelle „voll durchgezählt ist, setzt man eine Stelle voran. Erstellt man eine Art Übersetzungstabelle zwischen Binär- und Dezimal-System, so sieht die wie folgt aus: Dezimal 0 1 2 3 4 5 6 7 8 9 10 11 Und so weiter Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a Dual/Binär 0 1 10 11 100 101 110 111 1000 1001 1010 1011 15 148 Einführung ICT Etwas mathematischer ausgedrückt, liest sich das wie folgt: Man kann Zahlen anhand ihrer Basis darstellen. Im Dezimalsystem haben wir 10 Zahlen zur Verfügung – die Basis ist 10.Unser Zahlensystem funktioniert also mit Zehnerpotenzen. Ein kleines Beispiel? Wir nehmen dazu die Zahl 372 und schreiben sie als kleine Rechnung auf: 372 3*100 7*10 2*1. Das kann man jetzt auch in Zehnerpotenzen darstellen: 2 1 3*10 7*10 2*10 0 Auf diese Weise kann man auch jede andere Zahl darstellen: 3 2 1 0 6574 6*10 5*10 7*10 4*10 4 3 2 1 0 12032 1*10 2*10 0*10 3*10 2*10 Die Potenzschreibweise funktioniert auch bei binären Zahlen, wobei die basis nun 2 ist und nicht 10. Es gibt ja nur 2 verschiedene Ziffern, 0 und 1. Also nehmen wir als Basis die Zahl 2 anstatt der 10. Die binäre Zahl 1011 schreibt sich dann als 3 2 1 0 1*2 0*2 1*2 1*2 3 2 1 0 Mit 2 8 2 4 2 2 2 1 kann man obiges Beispiel also sogar ins Dezimalsystem umrechnen: 1011 (binär) 1*23 0*22 1*21 1*20 1*8 0*4 1*2 1*1 11 (Dezimal) Die duale Zahl 1011 entspricht also der dezimalen Zahl 11. (Vergleiche mit oben stehender Tabelle es sollte stimmen) Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 16 148 Einführung ICT 2.5.1.c Das Hexadezimal-System Analog zum dezimalen oder binären Zahlensystem kann man sich jede beliebige andere Variante von Zahlensystem vorstellen. Bei der Programmierung spielt das Hexadezimal-System noch eine wichtige Rolle. Hexadezimal steht für 16 und bedeutet, dass dieses Zahlensystem mit 16 Symbolen arbeitet. Wie bitte Sechzehn Zeichen Wie soll das gehen? Ganz einfach: 0 7 15 1C 1 8 16 1D 2 9 10 17 1E 3 11 18 1F 4 12 19 20 5 13 1A 21 6 14 1B 22 und so weiter Na? Verstanden, wie es funktioniert. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 17 148 Einführung ICT 2.5.2 Weshalb ein Binäres Zahlensystem? Doch weshalb das ganze TamTam um ein binäres Zahlensystem? Ganz einfach, dieses Zahlensystem eignet sich besonders für die Informatik, da sich mit technischen Bauteilen sehr leicht die Zustände AN und AUS erzeugen lassen. Ein Lichtschalter kann an oder aus sein. Genau so sind die elektronischen „Schalter in den Mikro-Chips ein oder ausgeschaltet. Entweder fliesst Strom oder nicht. Strom an – Strom aus. Null oder eins. Verstanden Die binären Zahlen können wie unsere normalen Dezimalzahlen verwendet werden man kann sie also addieren, subtrahieren, multiplizieren und dividieren. Sie eignen sich somit hervorragend, um mit elektronischen Bauteilen zu rechnen. 2.5.3 Anzahl Bits oder ich krieg gleich Zustände! Achtung, jetzt wird es esoterisch. Wir versuchen den Zusammenhang zwischen dem binären Zahlensystem, Bits und Bytes und der Anzahl möglicher Zustände zu ergründen. Nehmen wir mal an, Sie haben einen etwas mürrischen Informatik-Lehrer2, der manchmal extrem gut gelaunt, andere male aber eher mürrisch in die Stunde kommt. Nun ist das für die Schüler recht mühsam, wenn sie nie genau wissen, was sie heute wieder erwartet. Weil der Informatik-Lehrer – wie alle Lehrer – pädagogisch sehr gebildet ist, macht er mit seinen Schülern ab, dass er im Schulzimmer eine Kerze auf sein Pult stellt und diese anzündet, wenn er wieder einmal schlecht gelaunt ist. Somit kann er ohne sich bloss zu stellen, seinen Gemütszustand mit Hilfe dieser einen Kerze anzeigen: Kerze aus alles normal Kerze an Achtung, schlechte Laune Die Kerze ist wie eine Binärzahl mit nur einer Stelle. An oder aus, 0 oder 1. Auf die Computer übertragen haben wir einen Speicher mit 1 Bit. Mit einem Bit kann ich also zwei unterschiedliche Informationen signalisieren (z.B. gut gelaunt oder nicht gut gelaunt). Mit einem Bit haben wir 2 mögliche Zustände. 2 Selbstverständlich gibt es keine mürrischen Lehrer. Lehrer sind immer ausgeglichen und ihren Schülern gegenüber immer fair und gerecht. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 18 148 Einführung ICT Nun spinnen wir unser Beispiel weiter fort. Der Lehrer arbeitet hart an sich und irgendwann ist er soweit, dass er nicht einfach mehr mürrisch ist, sondern es gibt auch Tage, an denen seine Laune doch ein wenig besser, aber immer noch nicht gut ist. Nun muss die Abmachung mit der Kerze erweitert werden. Die Schüler und der Lehrer vereinbaren somit folgende Regeln mit zwei Kerzen: Kerze 1 und Kerze 2 aus Kerze 1 aus, Kerze 2 an Kerze 1 an, Kerze 2 aus beide Kerzen an alles ist im grünen Bereich leicht müde, aber noch gut gelaunt schon ziemlich mürrisch Achtung, absolut miese Laune Mit zwei Kerzen können wir also schon vier unterschiedliche Zustände des Lehrers darstellen. Übersetzen wir das in unser binäres Zahlensystem und stellen die Kerzen als Binärzahlen 0 und 1 dar, dann ergibt das folgende Darstellung: 00 01 10 11 alles ist im grünen Bereich leicht müde, aber noch gut gelaunt schon ziemlich mürrisch Achtung, absolut miese Laune Hätten wir also einen Computer mit 2 Bit Speicher, dann könnte dieser äh genau Ja was könnte der denn speichern? Seine beiden Bits lassen 4 Zustände zu. Er könnte also 4 mögliche Zustände unseres Lehrer darstellen oder aber, wenn wir zwei solche Lehrer hätten, für zwei Lehrer jeweils zwei mögliche Zustände. Mit 2 Bit kann ein Computer also vier unterschiedliche „Informations-Zustände speichern respektive darstellen. Wie viele mögliche Zustände des Lehrers ergäben sich, wenn wir das Beispiel auf drei Kerzen erweitern? Um dies durch zu spielen verzichten wir definitiv auf Kerzen und zählen mit 0 und 1. Los gehts: 000 001 010 011 100 101 110 111 Es wäre also möglich 8 verschiedene Zustände dar zu stellen. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 19 148 Einführung ICT Wir wollen hier nicht lange um den heissen Brei herum reden. Das Binärsystem ist ein Zahlensystem mit zwei Symbolen als Basis und die Anzahl möglicher Zustände hängt von der Anzahl Stellen der Binärzahl zusammen: Bei 1 Stelle (1 Kerze) Bei 2 Stellen (2 Kerzen) Bei 3 Stellen (3 Kerzen) Bei 4 Stellen (4 Kerzen) Bei 5 Stellen (5 Kerzen) 2 Zustände 4 Zustände 8 Zustände 16 Zustände 32 Zustände 21 22 23 24 25 Was bedeutet das für den Speicher eines Computers. Ein Bit ist die kleinste Speichereinheit in der Informatik. In einem Bit kann eine Information gespeichert werden. Diese Information kann zwei Zustände haben, nämlich AN oder AUS, also 1 oder 0. Ein Bit ist sehr wenig. Aus Gründen, die wir später noch sehen werden, hat eine Speicherbank von 8 Bits in der Informatik eine besondere Bedeutung. Deshalb nennt man 8 Bits auch ein Byte. Mit der Formel von oben können wir berechnen, dass man mit einem Byte genau 28 Zustände darstellen kann. Dies sind 256 Zustände, von 0 bis 255. Ein Speicher mit einem Byte Kapazität kann also genau 256 Informations-Zustände haben. Doch auch ein Byte ist noch sehr wenig. Deshalb finden sich vor dem Byte meist Wort-Zusätze, wie „Kilo, „Mega, „Giga und „Tera. Ein Computer mit 1 Kilobyte Speicher hätte also TAUSEND Speicherzellen von je 1 Byte, die jede genau 255 verschiedene Zustände darstellen könnte. Bräuchten wir zur Speicherung eines Buchstaben also ein Byte, dann könnte Ein Computer mit einem Kilo-Byte Speicher genau 1000 Buchstaben speichern. Mehr Detail hierzu werden wir weiter unten noch sehen. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 20 148 Einführung ICT 2.5.4 Codierung von Information Wir gehen täglich mit unterschiedlichsten Informationen bzw. Daten um, ohne uns gross überlegen zu müssen, was wir damit anstellen. Wir sehen, hören, fühlen, riechen und spüren den lieben langen Tag und verarbeiten diese Eindrücke ohne viel überlegen zu müssen. Ganz anders der Computer. Ein Computer kennt nur Zahlen respektive elektrische Signale. Ein Computer weiss im Grunde genommen gar nicht, was Zahlen, Text, Sounds oder Bilder sind. Bevor man mit dem Computer irgendwelche Daten bearbeiten kann, muss man diese in eine Form bringen, mit der der Computer etwas anfangen kann. Da ein Computer grundsätzlich nur rechnen kann, sind dies immer Zahlen. Und es kommt noch bunter: es sind immer Binärzahlen (diese werden dann intern in elektrische Signale umgewandelt). Alles, was der Computer verarbeiten soll, muss also in Zahlen umgewandelt werden. Etwas salopp ausgedrückt, kann man diesen Prozess „digitalisieren nennen. Man wandelt irgendwelche Informationen aus unserer analogen Welt in digitale Daten um. Wie dies für die einzelnen Datentypen geschieht, werden wir nachfolgend etwas genauer betrachten. 2.5.4.a Codierung von Zahlen mit Binärzahlen Die Codierung einer Zahl ist recht banal. Wir nehmen einfach unsere Umrechnungstabelle für Dezimal-Zahlen in Binärzahlen: 0 1 2 3 4 5 6 00000000 00000001 00000010 00000011 00000100 00000101 00000110 7 8 9 10 11 255 00000111 00001000 00001001 00001010 00001011 11111111 Wenn wir also einen Speicher von 1000 Bytes haben, können wir 1000 Zahlen zwischen 0 und 255 speichern. Wollen wir grössere Zahlen speichern und bearbeiten, brauchen wir einfach mehr als 8 Bit. Heutige Computer haben 32 oder gar 64 Bit Speicherzellen. Damit lassen sich schon recht grosse Zahlen darstellen und berechnen. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 21 148 Einführung ICT 2.5.4.b Codierung von Buchstaben mit Binärzahlen Wie geht der Computer mit Text um? Wie speichert er Text? Wie wandelt man Text, der im Normalfall aus Buchstaben und Zeichen besteht, in Zahlen um, so dass der Computer diese speichern und darstellen kann? Schon sehr früh wurden sogenannte Codetabellen erstellt. Eine der bekanntesten Codierungen ist die ASCII-Codierung: Die Abkürzung ASCII steht für American Standard Code for Information Interchange. Mit der ASCII-Codierung wurde eine standardisierte Tabelle entworfen, die jedem Zeichen eine ASCII-Nummer zuweist. Zur Darstellung aller Zeichen werden 8 Bit benötigt. Abbildung 3: ASCII Tabelle mit den Zeichen von 0 bis 255 Die Zeichen der ASCII-Tabelle reichen heute natürlich bei weitem nicht mehr aus. Die neuere UNICODE Codierung erlaubt auch die Darstellung von Zeichen, die nicht dem lateinischen Alphabet entnommen sind, wie zum Beispiel japanische Schriftzeichen. Mit der UNICODE Codierung können 65536 unterschiedliche Zeichen dargestellt werden. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 22 148 Einführung ICT 2.5.4.c Codierung von Bildern Wie wird ein Bild in 0-er und 1-en digitalisiert? Nehmen wir mal das folgende Schwarz-Weiss-Bild mit der Katze: Abbildung 4: Bei der Vergrösserung erkennt man, wie die Katze in Bildpunkte zerlegt wird. Die Vergrösserung zeigt, dass das Bild in einzelne viereckige Bildpunkte zerlegt wurde. Alle Punkte sind exakt gleich gross. Will man das Bild in binärer Form speichern, so reicht es, für jeden weissen Punkt eine eins und für jeden Schwarzen Punkt eine 0 zu speichern. In einem ersten Schritt könnte das dann ungefähr wie folgt aussehen: 1. Zeile 011111111010011101010 und so weiter 2. Zeile: 0000100001000000001010 und so weiter 3. Zeile: 0000001111010011101010 und so weiter 4. Zeile: 1110000100001000000001010 und so weiter und so weiter Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 23 148 Einführung ICT Dadurch hätten wir eine digitale Darstellungsform unseres Schwarz-WeissBildes gefunden. Doch wie speichert man farbige Bilder? Nehmen wir hierzu das folgende Photo, das bereits in einzelne Bildpunkte (Pixel) zerlegt wurde: Abbildung 5: Zerlegung eines farbigen Bilds in Pixel Wie die Abbildung zeigt, kann man auch farbige Bilder in Bildpunkte zerlegen. Diesmal können wir aber nicht einfach für jeden Bildpunkt eine 0 oder 1 speichern, denn die Punkte sind nicht nur schwarz oder weiss. Wie speichern wir die Farbe jedes Punktes? Zunächst definieren wir einen so genannten Farbraum: Schwarz 0 00000000 Dunkelgrau 1 00000001 Dunkelblau 2 00000010 Dunkelgrün 3 00000011 Weiss 255 11111111 Wir haben einen Farbraum mit 8 Bit-Farbtiefe gewählt, das heisst mit 256 möglichen Farben. Jetzt müssen wir nur noch zu jedem einzelnen Bildpunkt die 8 Bit1Byte Farbinformation speichern. Bemerkung: Selbstverständlich sind die Farbräume in Realität etwas komplizierter, als unser oben gewähltes Beispiel. Aber für unsere Zwecke reicht das allemal. Wollten wir Farbräume etwas detaillierter studieren, müssten wir uns mit Farbmodellen (RGB, CMYG, usw.) auseinandersetzen. Das ersparen wir uns. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 24 148 Einführung ICT Ein Aspekt, den wir jedoch noch genauer anschauen wollen, ist die Frage der Grösse einer Bild-Datei. Wie viel Platz braucht eine Bild-Datei, wenn man sie im Computer speichert? Nehmen wir als Beispiel eine Photographie, die wir mit einer kleinen Kamera mit 6 MegaPixel gemacht haben. 6 MegaPixel heisst, dass diese Kamera ihre Bilder in 6 Millionen Pixel zerlegt. Jede Photographie hat also 6 Millionen Bildpunkte. Nun muss man noch wissen, dass ein normaler Farbraum rund 16777216 mögliche Farben anbietet, also rund 32 Bit Speicher braucht (32 Bit sind 4 Bytes). Rechnen wir aus: 6 Millionen Pixel mal 4 Bytes ergibt 24 Millionen Bytes 24 MByte Was 24 Mbyte? Aber meine Photos haben immer viel weniger? Wie kommt das? Diese 24 MByte Speicher würde ein 6 MegaPixel-Bild benötigen, wenn man es normal abspeichern würde. Die Kamerahersteller haben aber so genannte Kompressionsverfahren entwickelt, die es erlauben, die Bilder bisweilen extrem zu „schrumpfen. Das Prinzip ist stets dasselbe: Man lässt die Luft aus den Bildern. Jedes Bild hat teilweise grössere Flächen mit nahezu derselben Farbe. Anstatt dass jeder einzelne Pixel gespeichert wird, wird die gesamte Fläche gespeichert, auch wenn eventuell einige Pixel ein wenig abweichen. Diesen Verfahren sagt man verlustbehaftete Verfahren (weil das Bild an Information verliert). Es gibt auch Kompressionsverfahren, die verlustfrei sind. Bei diesen schrumpfen aber die Dateigrössen wesentlich weniger. Verlustbehaftet sind zum Beispiel: JPG PNG Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a Verlustfrei sind zum Beispiel: TIFF GIF BMP 25 148 Einführung ICT 2.5.4.d Codierung von Klängen oder Musik Auch Töne werden im Computer digital abgelegt also durch Zahlen resp. Spannungszustände. Jeder Ton wird als Folge von Nullen und Einsen dargestellt. Das Mikrophon (1) wandelt Schallwellen in eine elektrische Spannung um, die ziemlich gut dem ursprünglichen Schallereignis entspricht. Dieses Signal ist aber immer noch analog. Diese Analogsignale (2) werden vom Analog/DigitalConverter in Digitalsignale (3) umgewandelt. Abbildung 6: Umwandlung von analogen Schallwellen in binär darstellbare Zahlen. Analog/Digital-Converter sind auch in Eingabegeräten wie Scanner, Videokameras, Digitalkameras und so weite integriert. Bei einer Digitalkamera wandelt der Analog/Digital-Converter eine bestimmte Anzahl Bildpunkte (Farben und HellDunkel) in Nullen und Einsen um. Das Resultat ist immer dasselbe: der Rechner erhält am Schluss eine Folge von Nullen und Einsen. Ein digitalisiertes Musikstück könnte beispielsweise im Rechner so aussehen: 10101000101101011011011001101010110101101101101101010101101101011010110101 10101011011010101111111010001101010101011000101011010101010111010101101010 10110110101011111101000110101010101100010101101010101011101010110101010110 11010101110111111111010001101010101011000101011010101010111010101101010101 10110101010110011010101101011011011011010101011011010110101101011010101101 10101011111110100011010101010110001010110101010101110101011010101011011010 10111111010001101010101011000101011010101010111010101101010101101101010110 101111110100011010101010110001010110101010101110101011010101011011010101 Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 26 148 Einführung ICT 3. Computerwissen 3.1 Was ist ein Computer Nachfolgend wollen wir ein wenig genauer auf die Technik eingehen, die hinter jedem Computer steckt. Zunächst wieder ein Auszug aus Wikipedia (Stand April 2010): Ein Computer, (von lat.: computare, zusammenrechnen) auch Rechner genannt, ist ein Apparat, der Daten mit Hilfe einer programmierbaren Rechenvorschrift verarbeiten kann. Der englische Begriff computer, abgeleitet vom Verb to compute (rechnen), bezeichnete ursprünglich Menschen, die zumeist langwierige Berechnungen vornahmen, zum Beispiel für Astronomen im Mittelalter. In der Namensgebung des 1946 der Öffentlichkeit vorgestellten Electronic Numerical Integrator and Computer (kurz ENIAC) taucht erstmals das Wort als Namensbestandteil auf. In der Folge etablierte sich Computer als Gattungsbegriff für diese neuartigen Maschinen. Ein Computer ist also eine Rechenmaschine. Natürlich gibt es unterschiedliche Arten von Computern. Der Personal Computer3 dürfte wohl der bekannteste sein. Daneben gibt es aber auch Grosscomputer, welche für Rechenintensive Aufgaben verwendet werden (Meteorologie, militärische Zwecke, ) Doch, fangen wir zuerst mal ganz vorne an mit der Geschichte der Computer. 3 Wobei Personal Computer (PC) überhaupt nicht an eine bestimmte Marke oder Firma gebunden sein muss. Der Begriff wurde dadurch geprägt, dass Computer so klein und günstig wurden, dass einzelne Personen sich einen solche leisten konnten. Dies trifft also sowohl auf IBM-kompatible, auf Apfel-PC oder irgendwelche andere Produkte zu. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 27 148 Einführung ICT 3.2 Die Entstehungs-Geschichte der Computer 3.2.1 Die Geschichte des Rechnens Bevor wir uns mit der Geschichte der Computer befassen, wollen wir die Geschichte des Rechnens anschauen. Wann die Menschheit begann, Dinge zu zählen, weiß man nicht. Die ältesten Zeugnisse legen Ton- oder Steintafeln mit Einritzungen ab. In nahezu allen antiken Hochkulturen entwickelten sich Zahlensysteme, die meist mit einem Strich für die Eins, zweien für die Zwei usw. begannen. Ab der Fünf gab es dann normalerweise weitere Symbole zur Abkürzung bis hin zur Zehn. Größere Zahlen wurden aus diesen und weiteren höherwertigen Symbolen zusammengesetzt. Erst im 8. Jahrhundert. nach Christus erfanden die Inder die Null. Die Werte der Zahlsymbole wurden nicht mehr einfach addiert sondern die Ziffern gemäß ihrer Position in der Zahl gewichtet. Dieses System kam dann über Arabien und Spanien nach Europa, wo es ab dem 16. Jahrhundert. seinen Siegeszug antrat. Ziffern von 0 bis 9, die zu Zahlen aneinander gereiht werden, deren rechteste Stelle einfach zählt, die zweite von rechts zehnfach, die dritte von rechts hundertfach und so weiter. Was uns so selbstverständlich erscheint, war eine der genialsten Erfindungen des Altertums. Abbildung 7: Oben: alte Zahlentafel. Unten verschiedene Zahlensysteme Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 28 148 Einführung ICT 3.2.2 Erste Ansätze für Rechenmaschinen Schon sehr früh wurde versucht, das Rechnen mit Hilfe von – dazumal noch mechanischen – Maschinen zu beschleunigen. Nachfolgende Beispiele zeigen den Einfallsreichtum, den die einzelnen Kulturen hierbei an den Tag legten. 3.2.2.a Der Abakus ca. 1100 v. Chr. Mit Auftreten der vollständigen Zahlensysteme ca. 3500 v. Chr. entstanden auch die ersten Rechenmaschinen. Gefunden wurde eine Bronzetafel von den Römern (von abax Tafel) mit Bohrungen, in denen Kugeln platziert wurden. Anhand bestimmter Verschiebungsregeln und Stellenübertragung ließen sich Aufgaben zur Addition, Subtraktion, Multiplikation und Division durchführen. Abbildung 8: Beispiel eines Abakus 3.2.2.b Rechenstäbchen von 1617 (John Napier Laird of Merchiston) Mit den Rechenstäbchen lässt sich neben Addition und Subtraktion auch die Multiplikation durchführen. Im Anschluss an die Rechenstäbchen wurden die Logarithmen und der erste logarithmische Rechenstab eingeführt. Was ein Logarithmus ist, sollten Sie ja wissen4, oder!? Abbildung 9: Rechenstäbchen aus dem 17. Jahrhundert. 4 Falls nicht: Ein Logarithmus ist für die meisten Leute schon etwas recht kompliziertes. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 29 148 Einführung ICT 3.2.2.c Rechenschieber von 1620 (William Oughtred) Beim Rechenschieber von Oughtred handelt es sich um eine Weiterentwicklung der bereits vorhandenen logarithmischen Tafeln. Basis ist die logarithmische Zahlendarstellung. Multiplikation und Division werden auf Addition und Subtraktion zurückgeführt. Im Laufe der Jahre wurden weitere Funktionen (z. B. trigonometrische) integriert. Abbildung 10: Der Rechenschieber bot schon enorme Möglichkeiten. 3.2.2.d Rechenmaschine von 1623 (Wilhelm Schickard) Sechsstellige Additionen, Subtraktionen, Divisionen und Multiplikationen mit einer zahnradgetriebenen Rechenmaschine werden ermöglicht. Im Dreißigjährigen Krieg wurde das Originalmodell zerstört und konnte erst später anhand von Aufzeichnungen wieder rekonstruiert werden. Abbildung 11: Die Rechenmaschine funktionierte rein mechanisch, aber sie funktionierte. 3.2.2.e Addiermaschine von 1642 (Blaise Pascal) Die Addiermaschine wurde aus Zahnrädern entwickelt und von Pascals Vater in der Finanzverwaltung eingesetzt. Bis zu achtstellige Additionen und Subtraktionen mit automatischem Zehnerübertrag sind möglich. Abbildung 12: Ebenso funktionierte die Additionsmaschine rein mechanisch. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 30 148 Einführung ICT 3.2.2.f Rechenmaschine von 1673 (Gottfried Wilhelm Leibniz) Zahlen werden über ein achtstelliges Einstellwerk eingegeben. Nach Drehen an einer Kurbel erscheint das Ergebnis auf einem zwölfstelligen Ergebniswerk. Division und Multiplikation werden durch mehrmaliges Drehen erreicht. Leibniz entwickelte auch das duale Zahlensystem, die Grundlage für die spätere Computerarithmetik. Abbildung 13: Die Rechenmaschine von Wilhelm Leibniz Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 31 148 Einführung ICT 3.2.3 Von der Lochkarte zum MARK 1 Die nächste Etappe in der Entstehung der heutigen Computer verläuft schon schneller. In den nachfolgenden Abschnitten wollen wir schauen, wie es zu den ersten elektrischen und elektronischen Computern kam. 3.2.3.a Lochkarte 1805 (Joseph-Marie Jacquard) Mit der Lochkarte bestand erstmals die Möglichkeit, Informationen (anfangs nur Zahlen) zu speichern. Die Lochkarte wurde beispielsweise zur Steuerung von Webstühlen eingesetzt. Bereits 1812 waren mehr als 10.000 lochkartengesteuerte Webstühle im Einsatz. (Als Vorlage für die Größe der Karte diente übrigens die Dollarnote). Diese Maschinen waren noch mechanisch, enthielten aber schon die Elemente, die zur späteren Entwicklung der „elektrisch gesteuerten Maschinen führten. 3.2.3.b Analytische Maschine 1833 (Charles Babbage) Charles Babbage entwickelte das Modell einer programmgesteuerten Rechenmaschine mit Lochkartensteuerung. Seine Ideen konnten jedoch aufgrund der fehlenden technischen Hilfsmittel nicht verwirklicht werden. 3.2.3.c Lochkartenmaschine 1886 (Hermann Hollerith) Hollerith entwickelte eine elektromagnetische Sortier- und Zählmaschine zur Auswertung von Lochkarten. Ihren ersten Großeinsatz fand die Lochkartenmaschine 1890 bei der 11. amerikanischen Volkszählung. Sie wurde hierbei benutzt, um die anfallenden Zahlen zu erfassen und auszuwerten. Mit Lochkarten und 43 entsprechenden Lesegeräten erledigte Hollerith die Erfassung und Auswertung der Volkszählung mit 50 Mitarbeitern in vier Wochen. Zehn Jahre zuvor benötigten 500 Personen sieben Jahre für diese Arbeit. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 32 148 Einführung ICT 3.2.3.d Zuse Z3 1934 1941 (Konrad Zuse) Nach ersten Versuchen (Z1 Z2) war dies der erste funktionsfähige Computer auf der Basis der analytischen Maschine vor Babbage. Er enthielt schon die wichtigsten Bestandteile heutiger Computer und arbeitete auf elektromagnetischer Basis. Informationen wurden erstmals in der Dualdarstellung (0 und 1) bearbeitet. Das Programm und die Daten wurden auf Kinofilm streifen abgelocht. Der Computer selbst bestand aus 2600 Fernmelderelais. Geschwindigkeit 3 5 Sek. pro Multiplikation Kosten5: ca. 75.000 € Abbildung 14: Die Zuse Z3 war schon erstaunlich komplex. Erst heute, Jahrzehnte später, wird Konrad Zuse nach und nach jene Ehre zuteil, die ihm gebührt. 3.2.3.e Mark 1939 1944 (Howard H. Aiken) Der Aufbau dieses im Auftrag von IBM entwickelten Computers ist ähnlich dem des Zuse Z3, obwohl beide Erfinder nicht übereinander informiert waren. Der Mark bestand aus ca. 700.000 Einzelteilen. Größe/Gewicht: Ca. 15 Länge, 2,5 Höhe, 35 Tonnen Geschwindigkeit: Ca. zehn Rechenoperationen pro Sekunde 5 Klar gab es dazumal den Euro noch nicht. Der aufgeführte Betrag entspricht der Umrechung der damaligen Währung in den heutigen Euro, ohne jedoch die Teuerung mit ein zu beziehen. Die genannte Summe war zu damaliger Zeit ein beeindruckender Betrag. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 33 148 Einführung ICT 3.2.4 Die verschiedenen Computergenerationen. Mit Zuse und Mark war der Computer eigentlich geboren. Nun wurde diese Technologie laufend weiter entwickelt. Nachfolgend wird aufgezeigt, wie nach und nach die heutigen Computer entwickelt wurden. 3.2.4.a 1946 1952 Neumann-Maschine (John von Neumann) Neumann entwickelte das Prinzip einer flexiblen Speichermaschine, die logische Entscheidungen bearbeiten kann (z. B. \Wenn Fall auftritt, dann führe Aktion A, andernfalls Aktion durch). 3.2.4.b 1946 Eniac 1. Generation (John P. Eckert und John W. Mauchly) Der Electronic Numerical Integrator And Computer bestand aus ca. 18.000 Elektronenröhren. 50 Mitarbeiter hatten drei Jahre an dem Computer gebaut. Die Ausfallzeit lag bei 50 wegen defekter Röhren. Größe/Gewicht: Geschwindigkeit: Fläche von ca. 140 Quadratmetern, 30 Tonnen Ca. 1000 Einzelbefehle pro Sekunde Abbildung 15: Computer waren zuweilen recht voluminös. Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a 34 148 Einführung ICT 3.2.4.c 1955 1960 Tradic 2. Generation (J.H. Felker) Der Computer wurde in den Bell Telephone Laboratories konstruiert und von der US-Luftwaffe gebaut. Die Röhren wurden durch Transistoren und Dioden (Halbleitertechnik) ersetzt. Geschwindigkeit: Ca. 10.000 Einzelbefehle pro Sekunde Abbildung 16: Die nächste Computergeneration (Ende 50-er Jahre) 3.2.4.d 1962 1970 Integrierte Schaltkreise 3. Generation Es erfolgte eine Zusammenfassung von Transistoren und Dioden auf kleinem Raum (integrierte Schaltkreise), d. h. 100 Transistoren auf drei Quadratmillimetern. Geschwindigkeit: Zuletzt gedruckt 26.03.2014 18:44:00 Gesamt_Skript V202.doc Version 2.0a Ca. 1 Million Einzelbefehle pro Sekunde 35 148 Einführung ICT 3.2.4.e 1968 Hoch integrierte Schaltkreise 4. Generation Bei der Entwicklung hoch integrierter Schaltkreise (VLSI Very large scale integration) wird nicht mehr mit Einzelbauteilen gearbeitet. Die Schaltungen werden durch eine bestimmte Abfolge von Beschichtungs-, Ätz- und Aufdampfprozessen auf Siliziumscheiben realisiert. Geschwindigkeit: Ca. 10 Millionen Einzelb