![]() ![]() ![]() ![]() |
||
http://www.glossar.de/glossar/z_computer.htm Übersicht:
|
Es ist mehr als ein Klischee, wenn festgestellt wird, daß sich kaum etwas schneller
entwickelt hat als die Computer-Technologie (siehe auch Moore's
Law). Den Anfang machte der 25-jähriger Amerikaner Herman Hollerith Ende des 19.
Jahrhunderts mit einer Maschine, die auf elektro-mechanischer Basis doppelt so schnell
zählen konnte wie ein Mensch und die zum Speichern von Buchstaben und Zahlen Lochkarten
benutzte. |
|
|
Auf der 15. Mannheimer Supercomputer-Tagung (8.-14.Juni 2000) stellte Hans Werner Meuer, der Leiter der Tagungen, fest, daß in den vergangenen 15 Jahren die Leistung der jeweils schnellsten Großrechner um das 1700-fache gestiegen sei: www.supercomp.de |
Der legendärste Supercomputer war die nach seinem Erfinder Seymour Cray genannte Cray-1. Er wurde 1976 installiert und war der erste Supercomputer mit Vektorverarbeitung. Die weiterentwickelte Cray X-MP Serie verwirklichte Mehrprozessorarchitektur. (Die Firma Cray wurde zwischenzeitlich von SGI gekauft und an Tera Computer weitergegeben.)
1999 / 2000 kommt der leistungsfähigste Superrechner aus dem Hause INTEL: Der ASCI Red dient der Simulation von Atombombenexplosionen und setzt dazu 9.472 Prozessoren ein. Er steht in den Sandia National Labs in Albuquerque, New Mexico, und leistet 2,4 tausend Gigaflops. Bis 2005 will IBM einen nochmals um den Faktor 500 schnelleren "Petaflops"-Rechner entwickeln, der dann in der Genomforschung Verwendung finden solle. (Sieben der ersten zehn Plätze besetzte zur Jahrtausendwende SGI, aber eben nicht die Nummer eins. Der schnellste SGI-Rechner war zu dem Zeitpunkt der "Blue Mountain" im Los Alamos National Laboratory.)
Übrigens: Im September 1999 stellte Apple den Power Mac G4 mit "Velocity Engine" vor. Er erreichte als erster PC überhaupt den Leistungsbereich eines sogenannten. "Supercomputers". Mit mehr als einer Milliarde Fließkomma-Operationen pro Sekunde ("Gigaflops") drang der Supercomputer in eine neue bezahlbare Dimensionen vor.
siehe auch:
in 4 Jahren eine Billiarde
Rechenoperationen pro Sekunde Ohne die Hilfe von Supercomputern bekommen die Genetiker die Datenflut zum menschlichen Erbgut wohl nicht in den Griff: Sowohl bei der Entschlüsselung als auch beim Verständnis der Gene müssen immer schnellere Rechner helfend eingreifen. IBM will deshalb in vier Jahren die schnellste Rechenmaschine der Welt - genannt "Blue Gene" - vorstellen. Sie soll die dreidimensionale Struktur der menschlichen Proteine entschlüsselen. Der Super-Computer soll in der Lage sein, alle Vorgänge bei der Proteinfaltung in
einem "vernünftigen" Zeitrahmen zu simulieren bzw. vorherzusagen. Damit könnte
die Funktion des Proteins bestimmt werden. "Blue Gene" wird nach IBM-Angaben
eine Billiarde (1.000.000.000.000.000) Rechenoperationen pro Sekunde abarbeiten. Dazu wird
die Supermaschine aus mehr als einer Million Prozessoren bestehen, von denen jeder eine
Milliarde Instruktionen pro Sekunde leisten kann. |
IBM baut Supercomputer für Genom-Forschung IBM baut an einem Supercomputer, der die Arbeit des Human Genome Projects zur Entschlüsselung der menschlichen Genstruktur unterstützen soll. Während die genaue Aminobasen-Struktur bestimmt wurde, ist es ein enormer Rechenaufwand die Bedeutung der einzelnen Basenpaare zu bestimmen. Beispielsweise werden zahlreiche Krebserkrankungen nicht durch ein verändertes Gen ausgelöst, sondern aus der Kombination von verschiedenen Defekten. Da es schätzungsweise 35.000 bisher identifizierte Gene gibt, ist die Kombination aller eine Sysiphos-Arbeit. Ein normaler Computer würde 447 Jahre ununterbrochen rechnen, um die ersten von den Forschern aufgestellten Gleichungen lösen zu können. Das sagte der Sprecher der Nutec Sciences, Michael Mott. Die Firma hat sich auf das Erstellen dieser Rechenaufgaben spezialisiert. Die Software von Nutec soll die Kalkulation der Gen-Kombinationen beschleunigen. Dank des von Nutec bestellten IBM-Supercomputers werde die Wartezeit keine 447 Jahre, sondern ungefähr einen Monat betragen. Der Rechner soll 7,5 Billionen Berechnungen pro Sekunde schaffen. Damit ist er 600 mal
schneller als der Computer, der 1997 Gari Kasparow im Schach geschlagen hat. Die aus einem
Cluster bestehende Maschine wird aus
1250 CPUs bestehen und 2,5 TByte RAM, 50 TByte Speicher sowie eine Netzwerk-Infrastruktur
mit hoher Bandbreite verfügen. Nur der von der Regierung betriebene ASCI White wird nach Inbetriebnahme des neuen Supercomputers
schneller als der IBM-Rechner sein. |
neuer schnellster
Rechner der Welt mit IBM hat Mitte 2000 mal wieder einen "schnellsten Rechner der Welt" vorgestellt. Der "RS/6000 ASCI White" besteht ...
Der ASCI White leistet damit 12,3 Billionen Teraflops oder 12,3 Billionen Fließkomma-Operationen (einzelne Rechenschritte) pro Sekunde. (Wollte ein Mensch mit einem Taschenrechner leisten, was der ASCI White in einer Sekunde macht, so würde er dafür zehn Millionen Jahre benötigen.) Nach Angaben von IBM ist das elektronische Superhirn 1000 Mal so schnell wie der berühmte IBM-Rechner "Deep Blue", der 1997 den Schachweltmeister Gary Kasparow besiegte. Für den Transport vom Bundesstaat New York nach Kalifornien werden 28 LKW-Anhänger nötig sein. Der 110 Millionen Dollar (etwa 225,5 Millionen Mark) teure Computer-Clusters hat nämlich gewaltige Dimensionen: Die durch komplexe Schaltungen und spezielle Software im Zusammenspiel agierenden Rechner haben das Gewicht von 17 ausgewachsenen Elefanten, die Anlage benötigt eine Fläche von zwei Basketball-Feldern. Auftraggeber und künftiger Nutzer des Super-Rechners ist die Accelerated Strategic Computer Initiative (ASCI) des US-Energieministeriums. Der ASCI White soll in den US-Livermore-Laboratorien in Kalifornien Simulationen von Atomtests liefern. Für die Regierung in Washington ist dies insbesondere wegen der Weigerung des von den Republikanern kontrollierten Senats von Bedeutung, den Atomteststopp-Vertrag zu ratifizieren. Wenn die Simulationen per Computer dem für die Tests zuständigen Energieministerium die notwendigen Daten bringen, wären echte Atom-Testexplosionen tatsächlich überflüssig, denn mit Hilfe des Computers ließe sich beweisen, "dass die Arsenale der USA sicher, verlässlich und einsatzbereit sind", wie David Cooper von den Livermore Labs erläutert. Die Simulationen umfassen alle Daten, die bei einer atomaren Explosion eine Rolle spielen. Um alle Tests vornehmen zu können, müsste der Super-Computer allerdings noch kräftig an Rechenkraft zulegen. Cooper schätzt, dass hierfür eine Rechenleistung von 100 Teraflops nötig wären. Bis 2004 spätestens solle auch dies möglich sein. Im Juli 2000 hat IBM zudem eine kommerzielle Version des Super-Computers auf den Markt gebracht. Wie IBM am 24.7. in New York mitteilte, will das Unternehmen mit dem RS/6000 eine erhöhte Nachfrage nach hoher Rechenleistung bei Großunternehmen und Internet-Diensten in der Wirtschaft befriedigen. Der Rechner soll in verschiedenen Leistungsstufen angeboten werden. Die günstigste Version wird laut IBM rund 190.000 Dollar (398.000 Mark) kosten, die größte von den Ausmaßen eines Tennisplatzes 110 Millionen Dollar (230 Millionen Mark). Seit 1999 gilt IBM als Marktführer bei der Herstellung von Super-Computern. Pro Jahr
werden rund 250 solcher Anlagen für Wetterdienste, Forschung und
Verschlüsselungsprojekte verkauft. |
Der (vorübergehend) schnellste zivile
Supercomputer der Welt steht in München Möglicherweise der schnellste Hochleistungsrechner der Welt im zivilen Bereich steht jetzt in München - bis zum nächsten "schnellsten Comupter". Der Supercomputer SR800 F1 soll im Endausbau über 1.512 Prozessoren mit 168 Knoten verfügen. Jeder Prozessor ist mit acht Gigabyte Hauptspeicher ausgestattet. Zur Inbetriebnahme Ende März verfügte der Rechner über 112 Knoten, von denen jeder rund 3.000 Megaflops ausführen kann. Die Spitzengeschwindigkeit beträgt 12.000 Megaflops. Bei der Vorstellung im Münchner Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften wiesen Wissenschaftler darauf hin, dass nur die USA im militärischen Bereich über drei schnellere Computer verfüge, die zur Kontrolle der Atomwaffen eingesetzt werden. Den neuen Rechner, dessen Kosten bei 90 Millionen Mark liegen, können Wissenschaftler aus ganz Deutschland nutzen, wenn ihre Rechenoperationen von keinem anderen Computer in vertretbarer Zeit durchgeführt werden können. In einem Testlauf mit einem Programm aus der Quantenchemie sei der Rechner mit 490 Gigaflops gelaufen. Für dieselbe Rechenleistung hätten über 8.100 Personal-Computer eingesetzt werden müssen, zur Vernetzung wären weitere rund 500 Rechner notwendig gewesen. Der neue Superechner F1 werde etwa drei Jahre lang zu den Toprechnern der Welt gehören und nach sechs Jahren veraltet sein. Er soll vor allem zur Berechnung von Modellen, der Entwicklung von Software-Methoden und Simulationen eingesetzt werden. Bei der offiziellen Inbetriebnahme des Superrechner am 28.6. schaffte er 1
Billion Rechenoperationen pro Sekunde und "steht damit an fünfter Stelle
weltweit", sagte Bayerns Wissenschaftsminister Hans Zehetmair (CSU). |
Er beherrscht ganze Konzerne, leitet Autofahrer aus dem Stau, gehört zu den liebsten Spielkameraden von Kindern und knackt selbst die schwierigsten Rechenaufgaben. Der unumstrittene Held des 20. Jahrhunderts hat einen Namen: Der Computer. Und es ist mehr als ein Klischee, wenn festgestellt wird, daß sich kaum etwas schneller entwickelt hat als die Computertechnologie. Wenige andere Erfindungen haben das 20. Jahrhundert so sehr beherrscht und den Alltag der Menschen so weitreichend verändert.
(Vermutlich) den Anfang machte der 25-jähriger Amerikaner Herman Hollerith. 1880 baute er zur Auswertung der amerikanischen Volkszählung eine Maschine, die auf elektromechanischer Basis doppelt so schnell zählen konnte wie ein Mensch. Der Rechner verwendete Babbages Lochkartentechnologie. Hollerith nannte seine Firma übrigens International Business Machines Corporation, oder kurz IBM (siehe auch Gottfried Wilhelm Leibniz).
Ein britischer Fernmeldeingenieur hat im Zweiten Weltkrieg einen der ersten Computer (den ersten?) der Welt gebaut, um Funksprüche der deutschen Wehrmacht zu entschlüsseln.Wie die französische Fachzeitschrift "Sciences et Vie Micro" 1999 in ihrer Juniausgabe berichtete, wäre die Landung der Alliierten in der Normandie 1944 ohne den Rechner mit dem Namen "Colossus" undenkbar gewesen. Das sechs Meter lange und 2,5 Meter hohe Ungetüm wurde jetzt anhand von Bildern und Zeitzeugenberichten in der Nähe von London wieder aufgebaut. "Colossus" sei so erfolgreich gewesen, daß der britische Premierminister Winston Churchill ihn nach dem Krieg habe zerstören lassen, berichtet der Autor Emile Servan-Schreiber in der Zeitschrift. Niemand habe wissen sollen, wie die Alliierten den Krieg gewonnen hätten, für den Fall, daß die "Heldentat" noch einmal hätte vollbracht werden müssen. Das Riesengerät funktioniert mit 2500 Elektronenröhren und hat einen 25-Bit-Arbeitsspeicher. In den 40er Jahren konnten damit deutsche Funksprüche binnen zwei Tagen entschlüsselt werden. Per Hand wären mehrere Monate nötig gewesen. Zwischen Januar und Juni 1944, also während der Vorbereitungszeit für die Landung der Alliierten, seien so jede Woche rund hundert Nachrichten entschlüsselt worden.
Der deutsche Ingenieur Konrad Zuse entwickelte 1941 den ersten vollautomatischen, frei programmierbaren Computer der Welt. Zuses Z3 hatte eine Speicherkapazität von 64 Wörtern und konnte in drei Sekunden Multiplizieren, Dividieren oder Quadratwurzeln ziehen. Parallel zu Zuse entwarf der amerikanische Physiker John Atanasoff den ersten digitalen elektronischen Computer. Spätestens mit dem Erfolg des Rechners ENIAC, mit dem das US-Militär 1945 verschlüsselte Meldungen der deutschen Wehrmacht dechiffrierte, wurde der Computer ernst genommen.
"Ich glaube es gibt
einen weltweiten Bedarf an vielleicht fünf Computern" (Thomas Watson, IBM-Chef, 1943) "In Zukunft könnte es
Computer geben, die weniger als 1,5 Tonnen wiegen" |
In der zweiten Hälfte der 40er Jahren wurden die ersten (tonnenschweren) programmgesteuerten Rechner installiert, mit denen man endlich die Lösungen der "Traumprobleme der Mathematiker" in Angriff nehmen konnte: der SSEC der Firma IBM, in dessen Inneren 12.500 Röhren und 21.400 Relais schalteten wie walteten und der für den Programmablauf 36 Lochstreifenleser benötigte, begann 1947 mit der Berechnung der Mondflugbahn (1947 wurde auch der Transistor erfunden). 1951 wurde zum ersten Male ein Computer in Serie gebaut. Er benötigte für eine Multiplikation 0,025 Sekunden. Die Daten wurden nun nicht mehr nur auf Lochstreifen gespeichert, sondern auch auf Magnetplatten und -bändern. Durch ihre Einführung konnten die anfallenden Datenmengen sinnvoll mit geringen Zugriffszeiten und entsprechender Platzersparnis gespeichert und verwaltet werden.
"Ich
habe das ganze Land bereist und mit allen Experten gsprochen, und ich sage Ihnen:
Datenverarbeitung ist ein Modefimmel, der nicht einmal das Jahr überstehen wird." (Lektor für Wirtschaftsbücher beim Verlag Prentice Hall, 1957) |
Als 1958 der integrierte Schaltkreis (IC) erfunden wurde, arbeiteten weltweit 1.300 Computer. Die neue Technologie ermöglichte nun kleinere, stromsparendere, schnellere, kühlere und damit preiswertere Rechner: die Stückzahlen wurden fünfstellig. Datentransfer und schnellere Peripherie machten die erwachsen werdende Technologie für den kommerziellen Anwender interessant. Die treibende Kraft in der Weiterentwicklung blieben aber die exotischen Anwendungswünsche wie das Apollo-Programm der 60er Jahre. 1969 waren der Stand der Technik monolithische Schaltkreise, auf denen bei 1 qmm Fläche 25 Transistoren und 40 Widerstände Platz fanden.
IBM war Mitte der 60er Jahre Vorreiter bei der Entwicklung der dritten Computer-Generation, die erstmals integrierte Schaltkreise (ICs / Chips) nutzte. Damit konnten die Ingenieure den Computer besser an bestimmte Aufgaben anpassen, als noch mit Röhren und Transistoren. Außerdem schrumpfte die Größe der Rechner dramatisch, während gleichzeitig die Zuverlässigkeit deutlich zunahm.
"Für eine Garage hatten wir gar kein Geld." (Michael Dell, Gründer von DELL) |
In den 70er Jahren setzte sich der Trend zu immer preiswerteren Computern durch den Einsatz der ICs weiter fort, und es vollzog sich eine Trennung in der Entwicklung neuerer Geräte, die vergleichbar ist mit der Entwicklung vom Ur-Benz zum VW-Golf (Personal-Computer [PC]) bzw. Ferrari (Groß- und "Super"-Computer).
Einen Meilenstein in
der Entwicklung zum heute bekannten PC bildet der erste Mikroprozessor, den INTEL 1971 vorstellt: die miniaturisierte
Rechner-Zentraleinheit (CPU), deren Funktionen auf einem Siliziumplättchen konzentriert
sind, verfügte über eine Datenbreite von vier Bit. Diesem Prozessor mit dem Namen "4004" (siehe
rechts) folgten 1972 der 8008 und 1974 der 8080, der sich zum 8-bit-Industriestandard
durchsetzte (siehe auch Prozessor-Geschichte).
1975 stellten Mitentwickler des 8080, die inzwischen INTEL verlassen und die Firma
Zilog gegründet hatten, einen verbesserten 8080-kompatiblen Prozessor - den Z80 - vor.
Begleitet wurde diese Entwicklung von dem "Zusammenbasteln" der ersten Computer,
die sich auch kleinere Geschäfte oder sogar Privatleute leisten konnten. Den Grundstein
zu diesem inzwischen heiß umkämpften Milliardenmarkt legte
1975 die Firma MITS aus
New Mexico mit dem Modell "Altair 8800", ein INTEL 8080-System, für 2000 Dollar
(Bild links). Der Altair wurde ein Flop; denn kein Mensch interessierte sich für solch
ein Produkt.
Mehr Erfolg hatten drei andere Unternehmen: Commodore, Tandy und Apple Computer (1976 von Steven Jobs und Steve Wozniak gegründet). Sie stellten 1977 ihre ersten kleinen Computer vor. Es waren Geräte von Bastlern, Freaks und "Hackern" für eben die selben. Die Geschäftsführung war improvisiert und laienhaft. Neben Textverarbeitung entwickelte sich insbesondere die Tabellenkalkulation zur wesentlichen PC-Anwendung, mit der aufwendige "Was-wäre-wenn-Simulationen" berechnet werden können.
Es gibt keinen
Grund, warum irgend jemand in der Zukunft einen Computer bei sich zu Hause haben sollte. |
In Deutschland wurde 1978 mit dem PET 2001 von Commodore der erste
Computer dieser Kategorie präsentiert (siehe rechts).
Soweit die Vergangenheit. Die Gegenwart begann 1978 / 1979 mit dem INTEL 8086 / 8088, einem 16-bit-Prozessor. Der 8088 war ein Zwitter, denn er entsprach nach außen hin noch einem 8-bit Prozessor (8-bit Datenbus), aber intern arbeitete er bereits mit 16-bit, was kürzere Berechnungszeiten und die Adressierung von mehr Arbeitsspeicher (RAM) ermöglichte. Der (ältere) 8086 war der erste echte 16-bit Prozessor (mit 16-bit breitem Datenbus), zu dem der heutige PENTIUM III-Prozessor in seinen Grundzügen immer noch kompatibel ist!
Mit 29.000 Transistoren war er um den Faktor 12 umfangreicher bestückt als sein Urahn, der 4004. Ziel der weiteren Entwicklung wurden durch die höhere Adressierbarkeit nicht nur schnellere und leistungsfähigere Prozessoren, sondern auch Speicherchips, die auf weniger Raum mehr Daten unterbringen können. Vorläufiger Höhepunkt war die Aufnahme der Serienfertigung eines 1-Megabit-Chips im Juni 1986. (Ein Text zum Schmunzeln aus dem Jahr 1983:Der IBM-Personal Computer XT und MS-DOS 2.00)
640 KBytes (Arbeitsspeicher)
ist alles, was irgendeine Applikation jemals benötigen sollte. |
Der SIRIUS 1 war einer der ersten Computer, der mit der 16-bit Technologie von INTEL ausgestattet war (8088). Dazu kam eine Hardwareumgebung, die damals (Anfang der 80er Jahre) ihresgleichen suchte. Der hochauflösende Bildschirm machte zum erstenmal Grafik im PC-Bereich sinnvoll, die Tastatur war professionell und umfangreich ausgelegt, und die Massenspeicher - inzwischen hatte man Floppy- und Festplattenlaufwerke entwickelt - konnten auch längere Texte, wie sie z.B. bei Ausschreibungen anfallen, sinnvoll konservieren.
Angestachelt durch den
Erfolg der anderen Firmen stieg IBM 1981 in das PC-Geschäft ein und rollte den Markt mit
Hilfe von Microsoft und Intel von hinten auf. (Übrigens: Der Motorola-Prozessor 68000 war
zu dieser Zeit zwar leistungsfähiger als der INTEL-Prozessor. Motorola konnte aber nicht
liefern; deshalb beschloß IBM, seinen PC mit INTELs 8088 auszustatten.) Als IBM-Partner
stieg Intel zum weltgrößten Chip-Produzenten im 20. Jahrtausend auf; und der
schmächtige Schüler Bill Gates von einst entwickelte sich mit seiner Vision von
"einem PC in jedem Haushalt" in den achtziger und neunziger Jahren zur
wichtigsten (und reichsten) Computer-Persönlichkeit der Welt.
Mit dem Einstieg der Firma IBM wurde der recht hohe Technologiestand des SIRIUS 1 umgeworfen. Kleiner Arbeitsspeicher, kleine und laute Floppylaufwerke (Speicherkapazität 360 KB beim IBM entgegen 1,2 MB beim SIRIUS), kleine Tastatur (weniger Tasten), fester Zeichensatz, fehlende Grafikmöglichkeit, die nur mit Erweiterungskarten geschaffen werden konnte, und einige andere Rückschritte wurden zum Industriestandard. IBM konnte es sich auch leisten, seinen PC mit dem biederen 8088 und langsamen 4,77 MHz Taktfrequenz auszustatten, anstatt durch den Einsatz des "rassigen" 8086 und einer höheren Taktfrequenz den Stand der Technik auszuschöpfen, wie es die italienische Firma Olivetti mit ihrem PC M24 oder asiatische IBM-Abgucker gemacht haben.
Weiterentwicklungen des 8086 brachten eine erweiterten Befehlssatz (80186) und erfüllen nun die Anforderungen neuer Betriebssysteme, die Multi-User und Multi-Tasking ermöglichen (80286 und Motorola 68000). Nach "PC" (Personal Computer) etablierte sich mit "AT" (advanced technology auf der Basis des 80286) - vorübergehend - eine neue Abkürzung auf dem Typenschild, nach der sich jeder Computer sehnte (siehe auch PC, Prozessor- Geschichte).
Ende der 80er Jahren ging die Entwicklung zwei parallele Wege, die sich aus heutiger Sicht aber durchaus verbinden lassen.
Parallel zu der bisher beschriebenen Entwicklung, die zum PENTIUM-PC führte, hat man die mittlere Datentechnik und Großcomputer-Entwicklungen ständig weitergetrieben. Auch wenn der PC immer mehr in deren Terrain einbricht, waren für Simulationen, filmreife Animationen und große Datenbank-Anwendungen bei Banken oder Versicherungen diese Boliden lange Zeit notwendig (siehe auch Rechengeschwindigkeit).
Der Computer-Boom der 90er Jahre kannte keine Grenzen: Erstmals wurde die Informationstechnik und Telekommunikation 1999 in Deutschland mit mehr als 200 Milliarden DM Umsatz den Automobilmarkt überholen. Allein 1998 wurden nach Schätzungen knapp 5,6 Millionen neue PC verkauft.
Gebremst wurde diese Entwicklung nur vom Mangel an Personal. Während andere Branchen ihre Beschäftigten vor die Tür setzen mußten, suchte die Informationstechnologie händeringend nach Fachleuten. Schätzungen zufolge waren in Europa etwa 370.000 Stellen offen. Die Fachleute fehlten am Ende des Jahrtausends vor allem zur Lösung des gefürchteten Jahr-2000-Problems (Y2K).
Der Chip steckt inzwischen längst nicht mehr nur in den Computern: Auch Waschmaschinen, Autos, Fernseher werden vom Chip gesteuert. Ohne Mikroprozessoren gäbe es keine Mobiltelefone, Airbags oder Mikrowellengeräte.
Einen weiteren Schub erfuhr die Computerindustrie zudem Ende der 90er Jahre, als das Computernetzwerk Internet durch grafische Benutzerprogramme ("Browser") für ein Massenpublikum interessant wurde. Was einst für militärische und wissenschaftliche Zwecke entworfen wurde, entwickelte sich innerhalb weniger Jahre zum weltweiten Kommunikationsnetz für Millionen Nutzer. In der virtuellen Welt treffen sie sich zum Plaudern mit anderen "Usern", erledigen Einkäufe oder Bankgeschäfte vom Sofa aus oder schreiben E-Mails an Freunde in aller Welt.
Wie sehr die Technik inzwischen in den Alltag eingegriffen hat, fällt aber meist erst auf, wenn sie plötzlich nicht mehr funktioniert. Ein Autofahrer fiel im Dezember 1998 mit seinem Glauben an die Technik ins Wasser: Sein automatisches Navigationssystem im Wagen hatte einen Fluß in dem Ort Caputh in Ostdeutschland nicht erkannt und ihn direkt in den Fluß Havel geleitet.
"Die Menschen werden die Computer lieber mögen, wenn die Computer die Menschen besser verstehen." (Marvinn Minsky, Medialab-Professeor, Orakel und Übervater der künstlichen Intelligenz) |
Was bringt die weitere Zukunft? Allmählich erreicht man die physikalischen Grenzen der Miniaturisierung, und auch der Strom kann nicht schneller fließen, als er es ohnehin schon tut. Man experimentiert deshalb mit Licht, Chemie und Biologie und versucht, grundsätzlich neue Ansätze zu finden. Mehr will man aber auch mit der alten Technik erreichen. Der Grundgedanke liegt nahe und könnte von der Baustelle übernommen sein: Wenn ein Arbeiter die verlangte Arbeit nicht leisten kann, dann müssen eben mehrere die Arbeit gleichzeitig machen. Die Planungen reichen bis zu 250.000 parallel arbeitenden Arbeitern - Prozessoren. Das Problem liegt dabei weniger auf der Hardwareseite als bei der Software, die die parallelen Prozesse aufeinander abstimmen muß.
Man erwartet von der neuen Rechnergeneration nicht nur höhere Geschwindigkeiten, größere Toleranzen und höhere Ausfallsicherheiten, sondern glaubt an Einsatzmöglichkeiten in ganz neuen Bereichen. Abgesehen von dem weiten Feld der "künstlichen Intelligenz" (KI), die wie ein Damokles-Schwert über Anhängern und Gegnern hängt, könnten die neuen Computer dem Menschen allgemein und besonders dem Architekten um eine Eigenschaft näher kommen, die bisher dem Computer noch völlig verschlossen blieb: das Erfassen komplexer Zusammenhänge. Bisher konnte der Computer zwar große Datenmengen in relativ kurzer Zeit bearbeiten aber nur in der Form von "0" und "1". Einen Gesamteindruck von den gegenüber der Vorlage abweichenden Details kann er aber kaum erfassen und auswerten.
siehe auch
Unisys "entschuldigt" sich für Probleme des Computer-Zeitalters Anlässlich des 50. Geburtstags von UNIVAC I, einem der ersten
kommerziellen Seriencomputer, hat Unisys eine "But sadly, the many benefits of the Computer Age have been accompanied by a number of transaction- based annoyances - all unimagined 50 years ago. As the company that started it all, Unisys feels it only fitting that it mark this historic anniversary with an apology for those inconveniences", so Leo Daiuto, Vizepräsident von Unisys ("Traurigerweise wurden die vielen Vorteile des Computer- Zeitalters auch durch viele ärgerliche Störungen begleitet, die vor 50 Jahren noch unvorstellbar waren"). So entschuldigt sich Unisys (sinngemäß) unter anderem dafür, ...
|
|
|
Bücher zum Thema: | ||
Noch mehr ausgewählte Bücher gibt es bei BAUBUCH.de. |
|
Copyright: GLOSSAR.de - Alfons Oebbeke, Neustadt 1997-2001 |
Navigation ohne Frames: |
|