© Prof. Dr. Knut Barghorn, Jade Hochschule. Studienort WHV. E-mail: knut.barghorn@jade-hs.de
Welchen Beruf Sie auch immer ausüben werden, das Wort Informatik wird Ihnen immer wieder über den Weg laufen. Als angehende Medienwirte oder Journalisten sollen Sie in der Lage sein, die Prozesse, die sich hinter dem Blech des Computers abspielen, zu verstehen. In Ihren zukünftigen Berufen werden Sie sicherlich das ein oder andere Mal aufgefordert sein, neue digitale, mediale Angebote, neue Arbeitsabläufe oder neue Technologien zu konzipieren. Oftmals werden die computertechnischen Möglichkeiten als Grundlage für diese Neuerungen dienen. Sie haben vermutlich in den neuen Medien bereits eine sehr hohe Nutzerkompetenz. In Ihrem künftigen Berufsfeld wird es aber nicht ausreichen, ein Mobiltelefon, ein Tablet oder einen Computer und die darauf installierten Apps gut bedienen zu können. Sie müssen in der Lage sein, zu verstehen, wie Computer funktionieren. Daraus können Sie dann ableiten, welche Möglichkeiten diese Geräte und deren Anwendungen bieten. Nur so werden Sie in der Lage sein, bestehende Anwendungen zu bewerten und neue zu konzipieren. Aus diesem Grund gibt es diese Veranstaltung. In dieser Vorlesung werde ich versuchen, Ihnen die Grundlagen der Informatik etwas näher zu bringen. Sie werden in dieser Vorlesung u.a. lernen:
Was ist überhaupt Informatik?
Wie funktioniert ein Computer?
Was verbirgt sich hinter dem Wort Hardware und wozu ist diese da?
Wieso kann ein Computer rechnen?
Was sind Prozesse und Algorithmen?
Was ist eigentlich Software?
Wie wird Software entwickelt?
Sie werden am Ende des Semesters vieles über Informatik und das Innenleben eines Computer wissen.
Informatik ist eigentlich ein Kunstwort, welches in den 60er Jahren in Deutschland und Frankreich geprägt wurde.
Informatik = Information + Mathematik
Damit stürzen wir uns in das nächste Problem: Was ist eigentlich eine Information?
Wenn wir den Begriff genau betrachten, ist die Information eine elementare Größe wie etwa die Materie. Wenn wir ähnlich der Materie vorgehen und es immer weiter zerlegen, landen wir bei der Materie bei den Elementarteilchen. Die kleinste Größe einer Information ist (nach derzeitigen Stand der Digitaltechnik) das Bit. Ein Bit kann genau zwei Zustände annehmen: 0 und 1. (oder einfacher: „ist nicht da“ und „ist da“) Technisch können die Zustände durch verschiedene Möglichkeiten dargestellt werden. Ein Spannungspegel liegt an oder nicht, ein Lichtimpuls ist da oder nicht, ein Magnetfeld liegt an oder nicht, ein Kratzer auf einer Oberfläche ist an einer definierten Stelle vorhanden oder nicht.
Im englischen Sprachraum hat sich der Begriff „Computer Science“ (zu deutsch „Computerwissenschaft“) durchgesetzt, der meines Erachtens die Wirklichkeit besser widerspiegelt und auch eine bessere Ableitung zur Definition zulässt.
Definition Informatik: Die Informatik ist die Wissenschaft von der systematischen Verarbeitung von Informationen, besonders der automatischen Verarbeitung mit Hilfe von Computern (elektronischen Rechenanlagen)
Die Informatik ist also eine Wissenschaft, die sich einerseits mit der Struktur, den Eigenschaften und den Beschreibungsmöglichkeiten von Informationen und auf der anderen Seite sich mit dem Aufbau und der Arbeitsweise von Computersystemen beschäftigen muss.
Aufgabe zum Mitdenken: Welche Tätigkeitsbereiche der Informatik kennen Sie?
Da dieses Gebiet, wie Sie sich vorstellen können sehr breit ist, wird die Informatik klassisch in verschiedene Bereiche untergliedert. Die Grenzen sind dort zum Teil aber fließend:
Technische Informatik
Praktische Informatik
Theoretische Informatik
Angewandte Informatik
Hierbei geht es im Wesentlichen um den Aufbau von Hardware (Rechnern und Peripheriegeräten und Netzwerken). Es werden logische und technische Entwürfe von Schaltungen und Geräten entwickelt. Wie schon der Name sagt, ist das Gebiet sehr technisch und die Grundlagen bilden die Physik und der Maschinenbau.
Entwicklung von Hardwarekomponenten (Speicher, Prozessoren, Schaltkreisen und –netzen)
Entwicklung von peripheren Geräten
Entwicklung von Rechnernetzen
Entwicklung von Rechnerarchitekturen
...
Behandelt die Methoden zur Umsetzung und Realisierung von Problemlösungen mittels Computern. Im Wesentlichen kümmert sich dieser Zweig um die Software.
Entwicklung von Datenstrukturen und Algorithmen
Entwicklung von Programmiersprachen und Compilern
Entwicklung Programmierumgebungen
Entwicklung von Programmiermethoden und Programmierhilfen
Entwicklung von Betriebssystemen
Entwicklung von Informationssystemen und Datenbanksystemen
...
Die Theorie ist sehr eng mit der Mathematik verknüpft. Es werden hier die mathematischen Methoden und Modelle von grundlegenden Strukturen untersucht. Die typische Grundlagenforschung des Faches. Es werden die Grenzen aufgezeigt, aber auch die Grundlagen für neuartige Anwendungen gelegt.
Theorie der Berechenbarkeit
Automatentheorie
Theorie der formalen Sprachen
...
Hier wird aufgezeigt, in welchen Feldern die Informatik als nützliches Instrument dienlich sein kann. Der Computer wird als Werkzeug betrachtet und die Problemstellung aus mannigfaltigen Anwendungsgebieten behandelt
Medizinische Informatik
Spracherkennung
Bildverarbeitung
Robotik
Automatisierung
Kaufmännische Datenverarbeitung
Wirtschaftsinformatik
Medieninformatik
...
Wir werden im Verlauf der Veranstaltung einige dieser Gebiete behandeln. Da es sich um eine Grundlagen-Veranstaltung handelt, werden wir die Gebiete jeweils nur streifen können.
Um zu verstehen, wie sich die Gebiete entwickelt haben, hilft es, sich die Geschichte der Informatik näher anzusehen.
Die Informatik ist, wie Sie bereits in der Definition gesehen haben, eine junge Wissenschaft. Trotzdem kann man sagen, dass die Wurzeln schon sehr früh gelegt wurden.
1700 v. Chr. |
Um diese Zeit werden die ersten schriftlichen Rechenaufgaben datiert. |
300 v. Chr. |
Euklidischer Algorithmus (Ermittlung des größten gemeinsamen Teilers zweier natürlichen Zahlen). Begegnet uns später noch mal wieder. |
500 n. Chr. |
Erfindung des Dezimalsystems in Indien |
ca. 783 – 850 n. Chr. |
Muhammad ibn Musa al-Chwarizmi ist Autor eines Buches mit dem Titel „Hisab al-dschabr wa-l-muqabala“ (Regeln zur Wiederherstellung und Reduktion). Auf ihn ist das Wort Algorithmus zurückzuführen. Durch dieses Werk wurde im Westen die Algebra (siehe Titel des Buches) begründet. Algorithmen meinte damals die Regeln der Arithmetik mit arabischen Ziffern. Heute ist dieses aber auf alle geregelten Prozeduren, mit denen Probleme jeder Art gelöst werden können, bezogen. |
1524 |
Adam Riese (1492-1559) veröffentlicht ein Buch über die Rechengesetze des aus Indien stammenden Dezimalsystems. |
1623 |
Wilhelm Schickard (1592- 1635) entwickelt die älteste bekannte Rechenmaschine für seinen Freund und Astronom Johannes Kepler. Die mechanische Maschine beherrscht die vier Grundrechenarten, bleibt aber unbeachtet. |
1641 |
Blaise Pascal (1623-1662) entwickelt eine Maschine mit der sechsstellige Zahlen addiert werden können. Diese Maschine diente als Erleichterung für seinen Vater bei der Arbeit als Steuereintreiber. |
1674 |
Gottfried Wilhelm Leibniz (1646-1716) konstruiert eine Rechenmaschine für die vier Grundrechenarten. Nebenbei beschäftigt er sich mit der Darstellung von Zahlen im Binärsystem |
1774 |
Philipp Hahn (1739-1790) entwickelt eine mechanische Maschine, die erstmals zuverlässig arbeitet |
ab 1818 |
Es werden die Rechenmaschinen nach dem Vorbild von Leibniz in größerer Zahl hergestellt und weiterentwickelt. |
1838 |
Charles Babbage (1792 – 1871) konstruiert eine Maschine, die durch Lochkarten gesteuert Rechenoperationen nacheinander abarbeiten kann. Die Konstruktion (Analytical Engine) verfügt über einen Zahlenspeicher, ein Rechenwerk eine Steuereinheit, einen Programmspeicher und Geräte zur Dateneingabe und –ausgabe. Leider wurde diese Maschine nie funktionsfähig, weil die technischen Fertigungsbedingungen zu dieser Zeit nicht ausreichten. Eine 1991 in London nach den Plänen von Babbage produzierte Maschine funktionierte aber tatsächlich. |
1886 |
Herrmann Hollerith (1816-1929) entwickelt eine elektrisch arbeitende Zählmaschine für Lochkarten. Diese wird für die Volkszählung in den USA (1890) erfolgreich eingesetzt. |
1934 |
Konrad Zuse (1910-1995) plant eine programmgesteuerte Rechenmaschine. Die Maschine verwendet das binäre Zahlensystem und die Gleitkomma-Zahlendarstellung. |
1937 |
Zuses erste mechanische Maschine (Z1) ist fertiggestellt |
1941 |
Zuses elektromechanische Maschine (Z3) ist fertiggestellt. Die Z3 stellt den ersten funktionsfähigen programm-gesteuerten Rechenautomaten dar. Sie hat immerhin 2000 Relais, funktioniert mit Lochkarten und kann eine Multiplikation in 3 Sekunden durchführen. |
1944 |
Howard H. Aiken (1900-1973) entwickelt zeitgleich zu Zuse zusammen mit der Harvard-University und IBM eine programmgesteuerte Rechenanlage namens MARK 1. Die Multiplikationszeit beträgt 6 Sekunden. |
1946 |
J.P. Eckert und J. W. Mauchly stellen ihre Maschine ENIAC (Electronic Numerical Integrator and Automatic Calculator) vor. Dies ist die erste voll elektronische Rechenanlage mit ca. 18.000 Elektronenröhren. Die Multiplikationszeit betrug 3 Millisekunden |
1946 |
John v. Neumann (1903-1957) stellt das theoretische Konzept zur Speicherung des Programms im (Daten-) Speicher vor. Mit der sogenannten von-Neumann-Architektur (Busstruktur) ist die Grundlage für die modernen Computer gelegt. |
Ab 1950 |
Die industrielle Rechnerentwicklung und Produktion beginnt. Ab sofort werden die Rechner in Generationen gezählt. Jede Generation hat eigene charakteristische Schaltkreistechnologien. |
1950-1960 |
Erste Generation: Elektronenröhren als Schaltelemente. Programmierung durch Maschinencode, Speicherkapazität ca. 100 Zahlen, Rechengeschwindigkeit: 1.000 Additionen pro Sekunde. |
1960-1970 |
Zweite Generation: Halbleiterschaltkreise (Transistoren und Dioden), erste höhere Programmiersprachen. Erste Betriebssysteme, Geschwindigkeit: 10.000 Additionen pro Sekunde |
Ab 1965 |
Dritte Generation: Grossrechner mit integrierten Schaltkreisen. Betriebssyteme mit Dialogbetrieb, Ein- und Ausgabegeräte (Tastaturen, Bildschirme), Multi-User-Betrieb, Programmiersprachen (Cobol, Fortran). Geschwindigkeit: 500.000 Additionen pro Sekunde |
Ab ca. 1970 |
Vierte Generation: Hochintegrierte Schaltkreise, ein Prozessor auf einem Chip, 8-Bit Technologie, Geschwindigkeit: 10 Mio. Additionen pro Sekunde, Rechnernetze, PCs, Workstations, objektorientiertes Programmieren. |
Ab ca. 1980 |
Fünfte Generation: Hochintegrierte Schaltkreise, mehrere Prozessoren auf einem Chip (mehrere Mio Transistoren pro Chip), 16- u. 32- Bit Architekturen, Parallelverarbeitung (Multitasking). |
12.08.81 |
Der erste PC von IBM wird vorgestellt. Es handelt sich um einen Intel 4,77 MHz-Prozessor getriebenen Rechner mit 16kB Arbeitsspeicher einem 5 ¼ Zoll Diskettenlaufwerk ohne Festplatte und dem Betriebssystem DOS1.1 |
Jahr |
Model |
Transistoren |
Takt (MHz) |
Bemerkung |
1971 |
4004 |
2300 |
0,108 |
Der erste Mikroprozessor. Einsatz in Taschenrechnern . |
1973 |
8008 |
3500 |
0,2 |
Unterstützte die 8-Bit Datenbreite und konnte erstmals programmiert werden. |
1975 |
8080 |
6.000 |
2,0 |
Erste vollprogrammierbare CPU aus dem Hause Intel, aber weiterhin ohne Co-Prozessor. |
1978 |
8086 |
29.000 |
4,0-8,0 |
Erste CPU mit 16-Bit-Technologie. Auch heute noch verwendete Architektur. |
1980 |
8088 |
29.000 |
4,0-8,0 |
Günstige Alternative zum Intel 8086. 8-Bit-Datenbus, billiger produziert, aber langsamer. |
1982 |
80286 |
124.000 |
6,0-20 |
Nachfolger des Intel 8086. Der Intel 80286 basierte weiterhin auf der 16-Bit-Technologie. |
1985 |
80386 |
275.000 |
12-30 |
32-Bit-Prozessor von Intel. Multitasking fähig, mehrere Programme gleichzeitig ausführbar. |
1989 |
80486 |
1.180.000 |
16-100 |
Mit Windows Aufschwung der Privat-PC's. Integrierten Co-Prozessor deutlich schneller. |
1993 |
Pentium |
3.100.000 |
60-166 |
Anfangs auch unter 80586 bekannt. |
1995 |
Pentium Pro |
5.500.000 |
150-200 |
Server-Prozessor, ein teurer und schneller Rechenknecht. |
1997 |
Pentium II |
7.500.000 |
233-350 |
Nachfolger des Pentium-Prozessors. |
1998 |
Celeron |
|
266-533 |
Günstige Alternative zu den teuren Pentium-Prozessoren, aber weniger Leistung |
1999 |
Pentium III |
9.500.000 |
450-650 |
Höheren Taktraten, verbesserte Architektur und neuen Befehlssätzen (SSE). |
1999 |
Celeron 2 |
21.000.000 |
500-1000 |
Neuer Prozessorkern. Höhere Taktraten möglich. |
2000 |
Pentium IIIe |
28.000.000 |
700-1000 |
Coppermine-Kern ermöglicht höhere Taktraten. |
2000 |
Pentium 4 |
42.000.000 |
>1400 |
Neuer Kern und neuer Befehlssatz (SSE2.) |
2002 |
Celeron |
21.000.000 |
1000-1800 |
Struktur und Prozessorkern werden geändert, so dass Taktraten bis 1800 Mhz möglich sind. |
2002 |
Pentium 4 |
55.000.000 |
>1500 |
Taktraten bis über 2 Ghz möglich. |
2002 |
Pentium 4 "HT" |
|
>2800 |
Intel führt die Hyperthreading-Technologie ein, welche ein Dual-Prozessor-System simuliert. |
2002 |
Itanium |
|
733-800 |
Erster 64 Bit-Prozessor, der nur auf 64 Bit-Code ausgelegt ist. Auch 32 Bit-Code möglich. Durch 64-Bit Code ist eine niedrigere Taktrate bei trotzdem hoher Geschwindigkeit möglich. |
2004 |
Pentium 4 E |
125.000.000 |
>2800 |
Mehr als doppelt so viele Transistoren wie sein Vorgänger. |
2014 |
180.000.000 pro cm2 |
>2800 |
Durch die Einführung von Nanotransistoren. |
|
2018 |
12.000.000.000 |
Durch immer bessere Nanotransistoren. (≤5 nm) Grenze erreicht??? |
Bild: Graphische Darstellung der Computerentwicklung
Gordon Moore (Mitgegründer von Intel) hat einmal gesagt, dass die Anzahl der Transistoren auf einem Chip sich innerhalb von 18 Monaten verdoppelt. Da die Leistungsfähigkeit von Computern eng daran gekoppelt ist, wird häufig auch als „Moore´s Law“ formuliert, dass sich die Leistung der Computer bei gleichem Preis innerhalb von 18 Monaten verdoppelt.
Moore liegt mit seiner Aussage nicht schlecht, wie sich in der Vergangenheit gezeigt hat. Die Entwicklung von 1 GHz Rechnern hat etwa 26 Jahre seit den Anfängen 8008-Prozessoren betragen. Die Steigerung von 1 GHz auf 2 GHz wurde in nur 8 Monaten vollzogen.
Allerdings sagt Moore 2005 in einem Interview, dass dieses „Gesetz“ auch Grenzen hat. Er geht davon aus, dass es höchstens noch 20 Jahre Gültigkeit hat. Demnach wäre es in fünf Jahren an der Grenze angekommen. Wir sind gespannt, ob er auch diesmal Recht hat. Die Presse jedenfalls ist sich sicher, dass wir jetzt schon an der Grenze sind, da sich die Transistoren nicht mehr verkleinern lassen.