Zeitschrift 

Der Bürger im Staat

Auf dem Weg ins 21. Jahrhundert

Medizin - Naturwissenschaft - Technik
 
 
 

Heft 3/2000 , Hrsg.: LpB

 

Inhaltsverzeichnis
 

Probleme mit der Miniaturisierung

Der Computer der Zukunft

Wann und wie es im Chip zum Kurzschluss kommt – und wie die Forscher das Problem lösen wollen

Von Klaus Herbst
Nach seinem Studium der Linguistischen Datenverarbeitung ist Klaus Herbst heute regelmäßiger Mitarbeiter für den Deutschlandfunk, die SWR-Wissenschaftsredaktion und verschiedene andere ARD-Wissenschaftsredaktionen, für den ORF und den BBC World Service sowie Fester freier Mitarbeiter bei der „Computer Zeitung“.

Auf dem Wege zu immer kleineren und leistungsfähigeren Chips ist heute das Ende des Silizium-Zeitalters absehbar. Nach neuen Möglichkeiten muss gesucht werden, nach neuen Anordnungen in der Speicherung quasi als Ausweg, sowie nach neuen Materialien. Die Erfolge sind vielversprechend.  Red.


Bald vorbei mit immer kleineren und leistungsfähigeren Chips

Während Millionen Rechner Tag und Nacht gewaltige Datenmengen verarbeiten, Nutzer weltweit Multimedia-Anwendungen genießen und während die ersten E-Commerce-Unternehmen vor der Pleite stehen, da denkt ein japanischer Computerexperte über die Zukunft nach und zeichnet ein Szenario für das neue Jahrhundert, das unsere von Informationstechnologie geprägten Welt das Fürchten lehrt: In einer ersten Phase erwartet Hiroshi Iwai vom Tokioter Institute of Technology noch Fortschritte bei der Softwareentwicklung, setzt auf höhere Computerintelligenz und ein wachsendes Kommunikationsaufkommen sowie auf mehr mobile und persönlichere Computer. In einer zweiten Phase sollen sich dann die Rechnerstrukturen an biologische Vorgänge angleichen. Doch bald schon werde es dabei gravierende Probleme geben: Die Grenze des so genannten Downsizing, der Miniaturisierung soll schon bald erreicht sein. Die Lithographie, die traditionelle fototechnische Art der Chipherstellung, wird mit immer kleineren Chipstrukturen nicht mehr fertig. Iwai sieht nur einen Ausweg aus der technologischen Sackgasse: ganz neue Materialien für den Computer der Zukunft. 
Auch Mitarbeiter der angesehenen Bell Labs, die Forschungsschmiede des Telekommunikationsriesen Lucent in Murray Hill (New Jersey), halten es für wahrscheinlich, dass die vermeintlich immerwährende Miniaturisierung der Computerchips an ihr Ende kommen wird: Schon im Jahr 2012 soll es mit immer neuen und besseren Chips vorbei sein. Mit einem hochkomplizierten Messverfahren, der Elektronenemissions-Verlustspektroskopie, sagen sie dies unübertroffen genau voraus. Das Ende der Siliziumtechnologie, auf der die ganze Computerwelt basiert, soll dann erreicht sein, wenn die kleinste Struktur im Chip, der Isolator aus Siliziumdioxid, auf nur noch ganze vier Atome – von denen dann nur noch zwei voll funktionstüchtig sind – ultradünn miniaturisiert sein wird. Das ist ziemlich genau im Jahr 2012 der Fall, meint Max Schulz vom Institut für Angewandte Physik der Universität Erlangen-Nürnberg. „Ultradünn“ bedeutet in diesem Fall etwa 0,8 bis 1,3 Nanometer.

Denn die Erfolgsstory des Silizium geht zu Ende

Schulz erklärt die Vorgehensweise der US-Forscher. Sie untersuchen die quantenmechanischen, elektronischen Zustände an der Grenzfläche des Isolators und im Isolator selbst. Sie messen diese durch Abtasten mit Spektroskopie, wie man das auch in der Optik macht – dort ist es die Farbe des Lichts, hier ist es die Energie der elektronischen Zustände in einem Festkörper. Ein Kondensator kann eine Ladung, die gesteuert werden soll, nur speichern, wenn es keinen Kurzschluss zwischen zwei Kondensatorplatten gibt. Die Kapazität dieses Kondensators wird immer größer, je dünner der Plattenabstand wird. Wenn es aber so dünn wird, dass es einen Kurzschluss gibt, dann bricht die Ladung zusammen, und man kann in dem Feldeffekttransistor keine Leitfähigkeit mehr steuern. Die Entwicklung ist also vorgezeichnet. Wenn die dünnen sogenannten Gate-Oxide aus Siliziumdioxid unter Spannung durchbrechen, so dass noch dünnere Oxide nicht mehr für elektronische Bauelemente verwendet werden können, dann droht der Erfolgsstory des Siliziums ein jähes Ende. 
Heute ist eine typische Siliziumdioxid-Schicht 25 Atome dick. Auch Verfahrensverbesserungen wie extremere Reinraumbedingungen oder höher auflösende Röntgen-Lithographie werden später nicht mehr weiterhelfen. Denn die Begrenzung der Oxid-Dicke ist von fundamentaler Bedeutung. Man müsse sich also wirklich etwas Neues einfallen lassen, um durch das Silizium-Nadelöhr zu wandern und auch nach 2012 noch bessere Chips zu bauen.
Schon bald kommt es vermehrt zu sogenannten Short Channel Effects. Dann werden elektronische Schalter undicht. Schalter für binäre Informationen lassen im ausgeschalteten Zustand Spannung durch. Und umgekehrt, wenn man sie einschaltet, setzen sie zu viel Widerstand entgegen. Was man auch macht, es ist verkehrt.

Auf der Suche nach tauglichen Alternativen

Die Cracks, die absoluten Experten auf diesem Gebiet, müssen sich also nach tauglichen Alternativen umschauen. Davon gibt es bereits einen ganzen Bauchladen skurriler und seriöser Konzepte. Ganz andere Alternativen sind sogenannte DNS-Computer, Biocomputer, 3-D-Chips, optische Rechner sowie Ferroelektrika als Siliziumersatz. Ferroelektrika sind – jedenfalls zur Zeit – noch nicht tauglich. Sie sind bei weitem nicht so fehlerfrei wie das gute, alte Silzium. Geeignete Materialien mit einer besseren dielektrischen Konstante, einer stärkeren Isolationswirkung und so pflegeleicht wie Silizium, sind noch längst nicht gefunden. Das Ferroelektrikum Tantalpentoxid zum Beispiel hat viel schlechtere Materialeigenschaften in punkto Defektfreiheit und Durchbruchfestigkeit. In diesem Zusammenhang kommt auch Kunststoff zu neuen Ehren: Materialforscher am Philips-Forschungszentrum in Eindhoven (NL) haben den ersten komplett aus Kunststoff bestehenden integrierten Schaltkreis gebaut. Auf einem Polyamid-Wafer werden 326 Transistoren untergebracht. Für Halbleitermaterial und die Isolation wird ein Kunststoff verwendet, die Elektroden bestehen aus einem organischen Metall. Für die Transistorstrukturierung wurde auf die herkömmliche Lithographie zurückgegriffen. Der Plastikchip ist mit 30 Bit pro Sekunde allerdings noch sehr langsam. Sein Vorteil aber ist die einfache Fertigung. 

Dreidimensionales Speichern als Ausweg

Wenn schon die Materialforschung nicht die baldige Lösung liefert, dann kann man das Miniaturisierungslimit auf die sanfte Tour umgehen, hoffen die Experten. Mit Software wollen sie das Hardwaredefizit ausgleichen. Außerdem sollen Hardwarekomponenten auf dem Chip intelligenter miteinander verschaltet werden. 
Sönke Mehrgardt vom Münchener Halbleiter-Hersteller Infineon wehrt sich gegen allzu düstere Prognosen. Er setzt auf einen Paradigmenwechsel und verweist auf das, was die Natur im menschlichen Gehirn bereits geschaffen hat. Dort ist die Information etwa 100 Millionen mal dichter gespeichert als in Computerspeichern. Das dreidimensionale Speichern von Informationen ist seiner Meinung nach ebenfalls ein großes Thema. Auch mit dem klassischen Silizium gebe es noch Möglichkeiten, die sich in erstaunliche Dimensionen hineinbewegen: In den Labors vorhandene 0,1- und 0,05-Mikrontransistoren sollen die nächsten 10 Jahre abdecken. So sehr man ins Schwitzen komme, wenn man alle Detailprobleme denkt, so gebe es noch einen relativ gut gefüllten Köcher von Maßnahmen.

Optische Rechner?

Ein mögliches Konzept sind optische Rechner. Die schnellsten Datenleitungen übertragen keine Elektronen sondern Photonen, Lichtquanten. Die Wechselwirkungen zwischen Photonen sind ganz anders als zwischen Elektronen, und so würden optische Rechner neue Möglichkeiten bieten, glaubt der Physiker Ekkehard Peik vom Max-Planck-Institut für Quantenoptik in Garching. Zwar wird am Konzept der optischen Rechner schon seit Mitte der achtziger Jahre gearbeitet, aber die Forscher erwarten, dass diese auf sehr spezielle Anwendungen beschränkt bleiben: hauptsächlich auf Bildverarbeitung, das Vergleichen von Bildern beispielsweise. Um Computer miteinander zu vernetzen, ist Licht besonders geeignet. Die Technik der Datenübertragung über Glasfaserkabel mit Licht ist bereits fest etabliert, entwickelt sich rasant, getrieben durch das schnell wachsende Internet, das große Übertragungsraten verlangt. Aber komplette optische Rechner haben sich im Labor als zu groß erwiesen und sind bereits von der fortschreitenden Miniaturisierung überholt worden.
Sogenannte DNS-Computer liegen noch in weiter Ferne. Die Idee ist, dass sich das in jeder menschlichen Zelle arbeitende menschliche Erbgut mit einem Computerprogramm vergleichen lasse.

Mit den Körperzellen von Schlammschnecken Computerchips bauen?

Dass man beispielsweise mit Hilfe der Körperzellen von Schlammschnecken neue Computerchips bauen könnte, glauben einige Wissenschaftler. Hier und da gibt es entsprechende Experimente. Man geht davon aus, dass sich die Zellen der Schnecken, legt man eine Spannung an, zusammenziehen und sich also als elektrische Schalter verwenden lassen könnten. Das hätte sicherlich Vorteile, Rechnern eine neuartige Schnittstelle zum menschlichen Körper zu geben. Biologische Chips könnten sich bei der Signalübertragung von Nervenreizen einspannen lassen, zum Beispiel in der Neuroprothetik. Dort ist es ein vielversprechendes Ziel, die Funktion künstlicher Organe stark zu verbessern. Dabei setzen die Forscher auf dem menschlichen Gehirn nachempfundene Neuronale Netze, bessere Software und eben auch auf Materialien aus der Natur. Dass aber ein vollständiger Computer aus Schneckenchips zu bauen sei und dass der auch noch schnell sein soll, damit rechnet wohl niemand ernsthaft.

Vorgänge der Natur simulieren

Begriffe wie Biocomputing und Chemical Computing führen leicht in die Irre. Denn sie suggerieren, es werde Computer geben, in denen biologische Substrate oder chemische Verbindungen Rechenoperationen ausführen. Tatsächlich verbirgt sich dahinter etwas anderes: eine hochaktuelle Technologie. Es geht um Software, beispielsweise der amerikanischen Chemical Computing Group (CCG). Die Software nennt sich Molecular Operating Environment (MOE). Sie erlaubt es, chemische und auch biologische Abläufe, also Vorgänge der Natur zu simulieren. Ein Stück Natur ist sozusagen auf die CD-ROM gebrannt. Solches Know How erlöst die Menschheit von Krankheiten – und die Pharmaindustrie von zusätzlichen Kosten. Die Technologie dient beispielsweise dem Screenen, der systematischen Suche nach neuen wirksamen Substanzen, was im Erfolgsfall in neue Medikamente mündet. Tierversuche werden so eingespart. Aber chemisch arbeitende Computer sind es nicht. Gleiches gilt für sogenannte DNA-Chips. Nicht das Erbgut rechnet – sondern Chip-ähnliche Gebilde explorieren das Erbgut.

Gestapelte Chips

Sogenannte 3-D-Chips sind bereits Wirklichkeit, obwohl heute noch die meisten Schaltkreise zweidimensional konstruiert sind. Weil die Chiphersteller Platz sparen wollen und müssen, sind sie schon vor Jahren auf die Idee gekommen, mehrere Prozessoren übereinander zu stapeln. Auf diese Weise sind so genannte Stacked Chips, gestapelte Chips, entstanden. Wäre ein Rechner vollständig mit solchen Chips ausgerüstet, würde er also komplett in 3-D arbeiten, ist zu erwarten, dass sich seine Leistungsfähigkeit wesentlich steigert.
Dreidimensional wird es auch bei den so genannten holographischen Datenspeichern. Beim Rennen nach größerer Speicherkapazität, höherer Speicherdichte und schnelleren Auslesezeiten versprechen dreidimensionale Speicher, eine Alternative der nächsten Generation zu werden. Diese bestehen aus verschiedenen Schichten zusammen montierter Hologramme. Weil in ihnen die Dimension der Tiefe hinzu kommt, ist eine stark verbesserte Speicherfähigkeit zu erwarten. Schwierigkeiten bereitet es noch, solche Systeme kostengünstig herzustellen.

Ein Quantencomputer könnte parallel statt nacheinander rechnen

Zum gegenwärtigen Stand gibt es glücklicherweise eine neuartige Technologie, der man mit einigem Recht größtmögliche Chancen zusprechen darf, mittel- und langfristig Silizium zu ersetzen – zumindest bei manchen Anwendungen. Das ist der sogenannte Quantencomputer. Sein Hauptvorteil: Er wäre in der Lage, besonders viele Rechenoperationen parallel, zur gleichen Zeit also, auszuführen, Aufgaben, die ein herkömmlicher Rechner vergleichsweise umständlich, nacheinander nämlich, abarbeitet. Ein Quantenbit, das sogenannte Qubit, könnte zusätzlich zu den beiden bekannten Zuständen offen oder geschlossen, null oder eins, die unsere binäre Welt ausmachen, noch eine Überlagerung beider Zustände schaffen. Könnte man gar mit zehn Bits arbeiten, dann hätten wir einen Gewinn von Tausend gegenüber konventionellen Rechnern. 
Im Max-Planck-Institut für Quantenoptik versuchen die Forscher gerade, den Quantencomputer zu verwirklichen, indem sie auf die Jagd nach Atomen gehen. In sogenannten Ionenfallen wollen sie elektrisch geladene Magnesiumatome im Raum festhalten. Die Fallen bestehen aus starken, genau definierten elektrischen Feldern. Dort werden die gefangenen Atome mit Laserstrahlen beschossen, handhabbar gemacht, hin- und hergeschoben und taugen damit grundsätzlich zum Ausführen von Rechenoperationen. Die wichtigsten Komponenten eines Quantencomputers sind also die Ionenfalle zum Einfangen der Atome, die Laserquelle für die Schaltoperationen und die Steuerung der Rechenoperationen von außen durch einen klassischen Computer, der die Laserstrahlung lenkt und sie gezielt zum Pulsieren bringt.
Eine Alternative sind sogenannte Kernspin-Quantencomputer. Hier verwenden die Forscher komplizierte, aus mehreren Atomen zusammengesetzte Moleküle mit ganz bestimmten Eigendrehimpulsen, den sogenannten Kernspins. Jeder Kernspin würde ein Qubit ergeben. Die Forscher könnten in flüssigen Medien sehr viele Moleküle zum Rechnen bringen.
Das Rechnen mit Quantencomputern würde ganze Klassen von Problemen überhaupt erst lösbar machen, vor denen herkömmliche Systeme versagen würden. Das wäre vor allem die sogenannte  Kryptographie, die Ver- und Entschlüsselung von Nachrichten. Eine andere mögliche Anwendung ist das Durchsuchen  extrem großer Datenbanken in Blitzgeschwindigkeit. Hier sind übliche Systeme sehr stark vom Zufall abhängig. Quantencomputer würden sehr viel effizienter  suchen. Allerdings birgt das Rechnen mit Quanten auch potenzielle Sicherheitsrisiken in sich. Denn weil es so schnell ist, würde es heute noch bombensichere Zahlencodes im Nu knacken, und die Verschlüsselung geheimer E-Mails, Kontodaten oder brisanter Texte würde zusammenbrechen. Das würde sie jedoch vermutlich nur kurze Zeit, denn schon bald würden Quantencomputer auf ganz neue Rechenformeln kommen, die dann wirklich sicher sind – ungleich sichere als diejenigen Kryptographieverfahren, die zur Zeit zum Einsatz kommen!

Ein bahnbrechender Erfolg ist gelungen

Gerade ist es auf dem Gebiet der Quantencomputer sogar zu einem bahnbrechenden Erfolg gekommen. Was Forscher vom Institut für Organische Chemie und Biochemie II der Technischen Universität München, vom Institut für Organische Chemie der Universität Frankfurt und Experten des Karlsruher Technologiehauses Bruker Analytik geschafft haben, bezeichnen Experten als Weltsensation. Die Forscher haben zum ersten Mal fünf Atome in einer Lösung zu einem Molekül verknüpft, zu einem sogenannten Designermolekül, das der Frankfurter Chemiker Raimund Marx geschaffen hat. Jedes einzelne seiner fünf Atome, ein Wasserstoff-, ein Stickstoff-, ein Fluor und zwei Kohlenstoffatome, trägt die Information eines Bits. Die Münchener, Frankfurter und Karlsruher Experten haben also den weltweit größten Quantencomputer gebaut, den weltweit ersten Quantencomputer mit fünf Qubits. 
Im Gegensatz zu normalen Computern besteht der neue Quantencomputer nicht aus miteinander verdrahteten Mikrochips. Das Modell setzt sich vielmehr aus einem NMR-Spektrometer (Kernmagnet-Resonanz-Spektrometer) und der eigens entwickelten Lösung zusammen. Das NMR-Spektrometer besteht aus einem starken Magnet. Dieser richtet Atome, die den so genannten Kernspin besitzen und sich damit selbst wie kleine Magnete verhalten, im starken Magnetfeld des NMR-Spektrometers aus wie Kompassnadeln im Magnetfeld der Erde. Durch das An- und Abschalten verschiedener Magnetfelder im NMR-Spektrometer werden die Kernspins der Atome in der neu entwickelten Lösung beeinflusst. Das „Computerprogramm“ des Quantencomputers besteht demnach aus einer bestimmten Abfolge von Magnetfeldern im An-/Aus-Modus. Diese Abfolge schreibt das Ergebnis der Rechnung fest.

Die Schnelligkeit erlaubt ganz neue Rechenoperationen

Der neue Quantencomputer kommt viel schneller ans Ziel. Das haben erste Testrechnungen bewiesen. Dazu verwendeten die Macher einen der einfachsten Quantenalgorithmen, den seit 1992 bekannten sogenannten Deutsch-Jozsa-Algorithmus. Dieser ist – stark vereinfacht beschrieben – in der Lage, mit Hilfe der fünf Qubits bestimmte Unterscheidungen zu treffen. Man könnte zum Beispiel die Echtheit eines Mark-Stückes daran erkennen, dass auf der einen Seite der Münze die Zahl eins eingepresst ist und auf der anderen der Bundesadler. Ein solches Objekt wäre höchstwahrscheinlich eine echte Münze. Besäße aber ein vermeintliches Mark-Stück auf beiden Seite eine Zahl oder auf beiden Seiten einen Adler, dann wäre es – weitere Mängel unbesehen – mit Sicherheit Falschgeld.
Die aktuellen Experimente haben bewiesen, dass es möglich ist, auch klassische Rechnungen auf einem Quantencomputer durchzuführen. Die wahren Stärken des Quantencomputers bei speziellen Anwendungen lassen sich nun erstmals ausspielen. An der Technischen Universität München werden bereits drei wichtige Anwendungen zum Teil erprobt, zum Teil vorbereitet: drei Algorithmen, welche die Quanteneigenschaften ausnutzen. Der Deutsch-Jozsa-Algorithmus unterscheidet konstante und ausgeglichene Funktionen. Ein Algorithmus von Shor dient zur Faktorisierung von Zahlen. Diese hat besondere praktische Bedeutung, denn sie bewältigt die Schwierigkeit der Primzahlzerlegung. Sie faktorisieriert diejenigen Zahlen, auf denen die wichtigsten Kryptographieverfahren, also Verschlüsselungsverfahren beruhen. Soll eine Zahl in ein Produkt aus Primzahlen zerlegt werden, wäre ein normaler Computer bei einer Zahl mit mehreren hundert Stellen für Jahrhunderte beschäftigt. Ein Quantencomputer könnte dies schneller erledigen, gelänge es, die Kapazität von derzeit fünf Qubits auf etwa 100 zu steigern. Solche Quantencomputer wären in der Lage, Geheimcodes oder die Nummern von Kreditkarten zu knacken, die in der Regel nach dem Prinzip der Primzahlzerlegung verschlüsselt sind.

Spürhunde in gigantischen Datenmengen

Der Algorithmus von Grover, dient zur Listensuche, taugt also Spürhund in gigantischen Datenmengen. Das ist längst nicht das Ende der Fahnenstange für mögliche Anwendungen, da sind sich die Forscher absolut sicher. Aber es sind eben die bislang bekanntesten Algorithmen, welche Quanteneffekte ausnutzen. Nun ist es ein aktueller Forschungsgegenstand, weitere Algorithmen zu entwickeln. 
Es zeichnet sich schon heute klar ab, dass es eine Menge von Aufgaben gibt, die mit dem Quantencomputer sehr viel effizienter zu bearbeiten sind als mit dem PC, der bei uns auf dem Schreibtisch steht. Es ist gewiss hoch spannend, Zeitzeuge zu sein, wie sich aus der Frankfurt-Münchener molekularen Ursuppe das potenzielle Rechnerkonzept der Zukunft erhebt.



Rasante Entwicklung

Längst hat der Computer auch in die Werkhallen Einzug gehalten. Dreher und Schlosser arbeiten an CNC-Maschinen, Lagerarbeiter müssen Zu- und Abgänge im Computer erfassen. Jeder dritte Industriearbeiter hat heute mit dem Computer zu tun; von den Arbeitern, die Maschinen und Anlagen montieren und warten, sind es sogar 58 Prozent. Im Büro und in der Verwaltung ist die Arbeit ohne PC heute nicht mehr denkbar. Dort arbeiten 93 Prozent der Arbeitnehmer zumindest ab und zu am Computer. Selbst Landwirte und Gärtner wollen nicht mehr ohne PC arbeiten: 27 Prozent können einen Computer nutzen. Insgesamt kommen fast zwei Drittel der Erwerbstätigen in Deutschland mit Tastatur und Monitor in Kontakt. Eine rasante Entwicklung: Vor einer Generation – damals liefen die Großrechner noch mit Lochkarten – arbeitete nur eine Minderheit von 14 Prozent mit dem Computer. 

 

    Copyright ©   2000  LpB Baden-Württemberg   HOME

Kontakt / Vorschläge / Verbesserungen bitte an: lpb@lpb-bw.de