Der Umfang des Datenmaterials in Wissenschaft und Technik nimmt immer
schneller zu; seine Auswertung und Beurteilung erweisen sich zunehmend
als die eigentliche Schwierigkeit bei vielen wichtigen Problemen. Dem
steht auf der anderen Seite ein seit Jahren ungebrochenes Anwachsen der
Rechnerleistung und die zunehmende Verfügbarkeit mächtiger Algorithmen
gegenüber, aber es ist oft nicht einfach, von diesen Hilfsmitteln den
richtigen und professionellen Gebrauch zu machen. Dieses Buch,
entstanden aus der Praxis der Verarbeitung großer Datenmengen, will eine
Einführung und Hilfe auf diesem Gebiet geben. Viele der Probleme sind
statistischer Natur. Hier ist es sprichwörtlich leicht, Fehler zu
machen. Deshalb sind der Erklärung und der kritischen Durchleuch- tung
statistischer Zusammenhänge auch im Hinblick auf die Praxis ein ange-
messener Raum gewidmet und ebenso den Monte Carlo-Methoden, welche heute
einen verhältnismäßig einfachen Zugang zu vielen statistischen Problemen
bie- ten. Werkzeuge für die Organisation und Strukturierung großer
Datenmengen bilden ein weiteres wichtiges Thema. Dazu gehören auch
effiziente Verfahren zum Sortieren und Suchen, welche oft Teil größerer
Algorithmen sind. Die Verarbeitung großer Datenmengen hat oft die
Extraktion verhältnismäßig weniger Parameter zum Ziel. Hier sind
Verfahren wie die Methoden der klein- sten Quadrate und der
Maximum-Likelihood wichtig, in Verbindung mit effek- tiven
Optimierungsalgorithmen. Ein weiteres Problem, welches oft unterschätzt
wird, ist die Rekonstruktion ursprünglicher Verteilungen aus
fehlerbehafteten Messungen durch Entfaltung. Mit der Verfügbarkeit
mathematischer Bibliotheken für Matrixoperationen kön- nen viele
Probleme elegant in Matrixschreibweise formuliert und auf Rechnern
gelöst werden. Deswegen werden auch die einfachen Grundlagen der
Matrixal- gebra behandelt.