Vierzig Jahre, nachdem John von Neumann sein Konzept eines rechnenden,
programmgesteuerten Automaten entworfen hat, setzt sich nun in der
Informatik die Erkenntnis durch, daß sequentiell arbeitende Rechner für
manche Probleme zu langsam arbeiten. Mit vielen, parallel arbeitenden
Prozessoren versucht man heutzutage in Multiprozessoranlagen, den "von
Neumann-Flaschenhals" zu umgehen. Dabei ergeben sich eine Menge neuer
Probleme: Die Aktivität der Prozessoren muß synchronisiert werden, die
Daten müssen effektiv verteilt werden und "Knoten" im Datenfluß (hot
spots) zwischen den Prozessoren und dem Speicher müssen vermieden
werden. Dazu werden Mechanismen benötigt, um auftretende Defekte in
ihren Auswirkungen zu erfassen und zu kompensieren, das Gesamtsystem zu
rekonfigurieren und alle Systemdaten zu aktualisieren. Bedenken wir noch
zusätzlich die Schwierigkeiten, die mit einer parallelen Programmierung
der eigentlichen Probleme verbunden sind, so können wir uns nur wundem,
wieso wir Menschen "im Handumdrehen" und "ganz natürlich" Leistungen
erbringen können, die mit den heutigen Rechnern bisher nicht
nachvollziehbar waren. Betrachten wir beispielsweise die Probleme der
"künstlichen Intelligenz", besser "wissensbasierte Datenverarbeitung"
genannt, so hinken die heutigen Systeme zum Sehen. Hören und Bewegen
hoffnungslos der menschlichen Realität hinterher. Weder in der
Bildverarbeitung und -erkennung, noch in der Spracherkennung oder in der
Robotersteuerung reichen die Systeme in Punkto Schnelligkeit
(real-time), Effektivität und Flexibilität (Lernen) oder Fehlertoleranz
an die menschlichen Leistungen heran.