© Prof. Dr. Knut Barghorn, Jade Hochschule. Studienort WHV. E-mail: knut.barghorn@jade-hs.de

0. Motivation, Begriffserklärung, Historie

0.1 Lernziele, Literaturtipps und URLs

Ziel dieser Einheit

Welchen Beruf Sie auch immer ausüben werden, das Wort Informatik wird Ihnen immer wieder über den Weg laufen. Als angehende Medienwirte oder Journalisten sollen Sie in der Lage sein, die Prozesse, die sich hinter dem Blech des Computers abspielen, zu verstehen. In Ihren zukünftigen Berufen werden Sie sicherlich das ein oder andere Mal aufgefordert sein, neue digitale, mediale Angebote, neue Arbeitsabläufe oder neue Technologien zu konzipieren. Oftmals werden die computertechnischen Möglichkeiten als Grundlage für diese Neuerungen dienen. Sie haben vermutlich in den neuen Medien bereits eine sehr hohe Nutzerkompetenz. In Ihrem künftigen Berufsfeld wird es aber nicht ausreichen, ein Mobiltelefon, ein Tablet oder einen Computer und die darauf installierten Apps gut bedienen zu können. Sie müssen in der Lage sein, zu verstehen, wie Computer funktionieren. Daraus können Sie dann ableiten, welche Möglichkeiten diese Geräte und deren Anwendungen bieten. Nur so werden Sie in der Lage sein, bestehende Anwendungen zu bewerten und neue zu konzipieren. Aus diesem Grund gibt es diese Veranstaltung. In dieser Vorlesung werde ich versuchen, Ihnen die Grundlagen der Informatik etwas näher zu bringen. Sie werden in dieser Vorlesung u.a. lernen:

Sie werden am Ende des Semesters vieles über Informatik und das Innenleben eines Computer wissen.

Literaturtipps, URLs

0.2 Begriffserklärungen

Informatik

Informatik ist eigentlich ein Kunstwort, welches in den 60er Jahren in Deutschland und Frankreich geprägt wurde.

Informatik = Information + Mathematik

Damit stürzen wir uns in das nächste Problem: Was ist eigentlich eine Information?

Wenn wir den Begriff genau betrachten, ist die Information eine elementare Größe wie etwa die Materie. Wenn wir ähnlich der Materie vorgehen und es immer weiter zerlegen, landen wir bei der Materie bei den Elementarteilchen. Die kleinste Größe einer Information ist (nach derzeitigen Stand der Digitaltechnik) das Bit. Ein Bit kann genau zwei Zustände annehmen: 0 und 1. (oder einfacher: „ist nicht da“ und „ist da“) Technisch können die Zustände durch verschiedene Möglichkeiten dargestellt werden. Ein Spannungspegel liegt an oder nicht, ein Lichtimpuls ist da oder nicht, ein Magnetfeld liegt an oder nicht, ein Kratzer auf einer Oberfläche ist an einer definierten Stelle vorhanden oder nicht.

Im englischen Sprachraum hat sich der Begriff „Computer Science“ (zu deutsch „Computerwissenschaft“) durchgesetzt, der meines Erachtens die Wirklichkeit besser widerspiegelt und auch eine bessere Ableitung zur Definition zulässt.

Definition Informatik: Die Informatik ist die Wissenschaft von der systematischen Verarbeitung von Informationen, besonders der automatischen Verarbeitung mit Hilfe von Computern (elektronischen Rechenanlagen)

Die Informatik ist also eine Wissenschaft, die sich einerseits mit der Struktur, den Eigenschaften und den Beschreibungsmöglichkeiten von Informationen und auf der anderen Seite sich mit dem Aufbau und der Arbeitsweise von Computersystemen beschäftigen muss.

Aufgabe zum Mitdenken: Welche Tätigkeitsbereiche der Informatik kennen Sie?

Da dieses Gebiet, wie Sie sich vorstellen können sehr breit ist, wird die Informatik klassisch in verschiedene Bereiche untergliedert. Die Grenzen sind dort zum Teil aber fließend:

Technische Informatik

Hierbei geht es im Wesentlichen um den Aufbau von Hardware (Rechnern und Peripheriegeräten und Netzwerken). Es werden logische und technische Entwürfe von Schaltungen und Geräten entwickelt. Wie schon der Name sagt, ist das Gebiet sehr technisch und die Grundlagen bilden die Physik und der Maschinenbau.

Praktische Informatik

Behandelt die Methoden zur Umsetzung und Realisierung von Problemlösungen mittels Computern. Im Wesentlichen kümmert sich dieser Zweig um die Software.

Theoretische Informatik

Die Theorie ist sehr eng mit der Mathematik verknüpft. Es werden hier die mathematischen Methoden und Modelle von grundlegenden Strukturen untersucht. Die typische Grundlagenforschung des Faches. Es werden die Grenzen aufgezeigt, aber auch die Grundlagen für neuartige Anwendungen gelegt.

 

Angewandte Informatik

Hier wird aufgezeigt, in welchen Feldern die Informatik als nützliches Instrument dienlich sein kann. Der Computer wird als Werkzeug betrachtet und die Problemstellung aus mannigfaltigen Anwendungsgebieten behandelt

Wir werden im Verlauf der Veranstaltung einige dieser Gebiete behandeln. Da es sich um eine Grundlagen-Veranstaltung handelt, werden wir die Gebiete jeweils nur streifen können.

0.3 Historie (der Informatik)

Um zu verstehen, wie sich die Gebiete entwickelt haben, hilft es, sich die Geschichte der Informatik näher anzusehen.

Die Informatik ist, wie Sie bereits in der Definition gesehen haben, eine junge Wissenschaft. Trotzdem kann man sagen, dass die Wurzeln schon sehr früh gelegt wurden.

 

1700 v. Chr.

Um diese Zeit werden die ersten schriftlichen Rechenaufgaben datiert.

300 v. Chr.

Euklidischer Algorithmus (Ermittlung des größten gemeinsamen Teilers zweier natürlichen Zahlen). Begegnet uns später noch mal wieder.

500 n. Chr.

Erfindung des Dezimalsystems in Indien

ca. 783 – 850 n. Chr.

Muhammad ibn Musa al-Chwarizmi ist Autor eines Buches mit dem Titel „Hisab al-dschabr wa-l-muqabala“ (Regeln zur Wiederherstellung und Reduktion). Auf ihn ist das Wort Algorithmus zurückzuführen. Durch dieses Werk wurde im Westen die Algebra (siehe Titel des Buches) begründet. Algorithmen meinte damals die Regeln der Arithmetik mit arabischen Ziffern. Heute ist dieses aber auf alle geregelten Prozeduren, mit denen Probleme jeder Art gelöst werden können, bezogen.

1524

Adam Riese (1492-1559) veröffentlicht ein Buch über die Rechengesetze des aus Indien stammenden Dezimalsystems.

1623

Wilhelm Schickard (1592- 1635) entwickelt die älteste bekannte Rechenmaschine für seinen Freund und Astronom Johannes Kepler. Die mechanische Maschine beherrscht die vier Grundrechenarten, bleibt aber unbeachtet.

1641

Blaise Pascal (1623-1662) entwickelt eine Maschine mit der sechsstellige Zahlen addiert werden können. Diese Maschine diente als Erleichterung für seinen Vater bei der Arbeit als Steuereintreiber.

1674

Gottfried Wilhelm Leibniz (1646-1716) konstruiert eine Rechenmaschine für die vier Grundrechenarten. Nebenbei beschäftigt er sich mit der Darstellung von Zahlen im Binärsystem

1774

Philipp Hahn (1739-1790) entwickelt eine mechanische Maschine, die erstmals zuverlässig arbeitet

ab 1818

Es werden die Rechenmaschinen nach dem Vorbild von Leibniz in größerer Zahl hergestellt und weiterentwickelt.

1838

Charles Babbage (1792 – 1871) konstruiert eine Maschine, die durch Lochkarten gesteuert Rechenoperationen nacheinander abarbeiten kann. Die Konstruktion (Analytical Engine) verfügt über einen Zahlenspeicher, ein Rechenwerk eine Steuereinheit, einen Programmspeicher und Geräte zur Dateneingabe und –ausgabe. Leider wurde diese Maschine nie funktionsfähig, weil die technischen Fertigungsbedingungen zu dieser Zeit nicht ausreichten. Eine 1991 in London nach den Plänen von Babbage produzierte Maschine funktionierte aber tatsächlich.

1886

Herrmann Hollerith (1816-1929) entwickelt eine elektrisch arbeitende Zählmaschine für Lochkarten. Diese wird für die Volkszählung in den USA (1890) erfolgreich eingesetzt.

1934

Konrad Zuse (1910-1995) plant eine programmgesteuerte Rechenmaschine. Die Maschine verwendet das binäre Zahlensystem und die Gleitkomma-Zahlendarstellung.

1937

Zuses erste mechanische Maschine (Z1) ist fertiggestellt

1941

Zuses elektromechanische Maschine (Z3) ist fertiggestellt. Die Z3 stellt den ersten funktionsfähigen programm-gesteuerten Rechenautomaten dar. Sie hat immerhin 2000 Relais, funktioniert mit Lochkarten und kann eine Multiplikation in 3 Sekunden durchführen.

1944

Howard H. Aiken (1900-1973) entwickelt zeitgleich zu Zuse zusammen mit der Harvard-University und IBM eine programmgesteuerte Rechenanlage namens MARK 1. Die Multiplikationszeit beträgt 6 Sekunden.

1946

J.P. Eckert und J. W. Mauchly stellen ihre Maschine ENIAC (Electronic Numerical Integrator and Automatic Calculator) vor. Dies ist die erste voll elektronische Rechenanlage mit ca. 18.000 Elektronenröhren. Die Multiplikationszeit betrug 3 Millisekunden

1946

John v. Neumann (1903-1957) stellt das theoretische Konzept zur Speicherung des Programms im (Daten-) Speicher vor. Mit der sogenannten  von-Neumann-Architektur (Busstruktur) ist die Grundlage für die modernen Computer gelegt.

Ab 1950

Die industrielle Rechnerentwicklung und Produktion beginnt. Ab sofort werden die Rechner in Generationen gezählt. Jede Generation hat eigene charakteristische Schaltkreistechnologien.

1950-1960

Erste Generation: Elektronenröhren als Schaltelemente. Programmierung durch Maschinencode, Speicherkapazität ca. 100 Zahlen, Rechengeschwindigkeit: 1.000 Additionen pro Sekunde.

1960-1970

Zweite Generation: Halbleiterschaltkreise (Transistoren und Dioden), erste höhere Programmiersprachen. Erste Betriebssysteme, Geschwindigkeit: 10.000 Additionen pro Sekunde

Ab 1965

Dritte Generation: Grossrechner mit integrierten Schaltkreisen. Betriebssyteme mit Dialogbetrieb, Ein- und Ausgabegeräte (Tastaturen, Bildschirme), Multi-User-Betrieb, Programmiersprachen (Cobol, Fortran). Geschwindigkeit: 500.000 Additionen pro Sekunde

Ab ca. 1970

Vierte Generation: Hochintegrierte Schaltkreise, ein Prozessor auf einem Chip, 8-Bit Technologie, Geschwindigkeit: 10 Mio. Additionen pro Sekunde, Rechnernetze, PCs, Workstations, objektorientiertes Programmieren.

Ab ca. 1980

Fünfte Generation: Hochintegrierte Schaltkreise, mehrere Prozessoren auf einem Chip (mehrere Mio Transistoren pro Chip), 16- u. 32- Bit Architekturen, Parallelverarbeitung (Multitasking).

12.08.81

Der erste PC von IBM wird vorgestellt. Es handelt sich um einen Intel 4,77 MHz-Prozessor getriebenen Rechner mit 16kB Arbeitsspeicher einem 5 ¼ Zoll Diskettenlaufwerk ohne Festplatte und dem Betriebssystem DOS1.1

 

Entwicklung von Computern

Jahr

Model 

Transistoren

Takt (MHz)

Bemerkung

1971

4004

2300

0,108

Der erste Mikroprozessor. Einsatz in Taschenrechnern .

1973

8008

3500

0,2

Unterstützte die 8-Bit Datenbreite und konnte erstmals programmiert werden.

1975

8080

6.000

2,0

Erste vollprogrammierbare CPU aus dem Hause Intel, aber weiterhin ohne Co-Prozessor.

1978

8086

29.000

4,0-8,0

Erste CPU mit 16-Bit-Technologie. Auch heute noch verwendete Architektur.

1980

8088

29.000

4,0-8,0

Günstige Alternative zum Intel 8086. 8-Bit-Datenbus, billiger produziert, aber langsamer.

1982

80286

124.000

6,0-20

Nachfolger des Intel 8086. Der Intel 80286 basierte weiterhin auf der 16-Bit-Technologie.

1985

80386

275.000

12-30

32-Bit-Prozessor von Intel. Multitasking fähig, mehrere Programme gleichzeitig ausführbar.

1989

80486

1.180.000

16-100

Mit Windows Aufschwung der Privat-PC's. Integrierten Co-Prozessor deutlich schneller.

1993

Pentium

3.100.000

60-166

Anfangs auch unter 80586 bekannt.

1995

Pentium Pro

5.500.000

150-200

Server-Prozessor, ein teurer und schneller Rechenknecht.

1997

Pentium II

7.500.000

233-350

Nachfolger des Pentium-Prozessors.

1998

Celeron


266-533

Günstige Alternative zu den teuren Pentium-Prozessoren, aber weniger Leistung

1999

Pentium III

9.500.000

450-650

Höheren Taktraten, verbesserte Architektur und neuen Befehlssätzen (SSE).

1999

Celeron 2

21.000.000

500-1000

Neuer Prozessorkern. Höhere Taktraten möglich.

2000

Pentium IIIe

28.000.000

700-1000

Coppermine-Kern ermöglicht höhere Taktraten.

2000

Pentium 4

42.000.000

>1400

Neuer Kern und  neuer Befehlssatz (SSE2.)

2002

Celeron

21.000.000

1000-1800

Struktur und Prozessorkern werden geändert, so dass Taktraten bis 1800 Mhz möglich sind.

2002

Pentium 4

55.000.000

>1500

Taktraten bis über 2 Ghz möglich.

2002

Pentium 4 "HT"


>2800

Intel führt die Hyperthreading-Technologie ein, welche ein Dual-Prozessor-System simuliert.

2002

Itanium


733-800

Erster 64 Bit-Prozessor, der nur auf 64 Bit-Code ausgelegt ist. Auch 32 Bit-Code möglich. Durch 64-Bit Code ist eine niedrigere Taktrate bei trotzdem hoher Geschwindigkeit möglich.

2004

Pentium 4 E

125.000.000

>2800

Mehr als doppelt so viele Transistoren wie sein Vorgänger.

2014

180.000.000 pro cm2

>2800

Durch die Einführung von Nanotransistoren.

2018

12.000.000.000

Durch immer bessere Nanotransistoren. (≤5 nm) Grenze erreicht???




Bild: Graphische Darstellung der Computerentwicklung

Gordon Moore (Mitgegründer von Intel) hat einmal gesagt, dass die Anzahl der Transistoren auf einem Chip sich innerhalb von 18 Monaten verdoppelt. Da die Leistungsfähigkeit von Computern eng daran gekoppelt ist, wird häufig auch als „Moore´s Law“ formuliert, dass sich die Leistung der Computer bei gleichem Preis innerhalb von 18 Monaten verdoppelt.

 Moore liegt mit seiner Aussage nicht schlecht, wie sich in der Vergangenheit gezeigt hat. Die Entwicklung von 1 GHz Rechnern hat etwa 26 Jahre seit den Anfängen 8008-Prozessoren betragen. Die Steigerung von 1 GHz auf 2 GHz wurde in nur 8 Monaten vollzogen.

Allerdings sagt Moore 2005 in einem Interview, dass dieses „Gesetz“ auch Grenzen hat. Er geht davon aus, dass es höchstens noch 20 Jahre Gültigkeit hat. Demnach wäre es in fünf Jahren an der Grenze angekommen. Wir sind gespannt, ob er auch diesmal Recht hat. Die Presse jedenfalls ist sich sicher, dass wir jetzt schon an der Grenze sind, da sich die Transistoren nicht mehr verkleinern lassen.