Zeitschrift 

Der Bürger im Staat

Auf dem Weg ins 21. Jahrhundert

Medizin - Naturwissenschaft - Technik
 
 
 

Heft 3/2000 , Hrsg.: LpB

 

Inhaltsverzeichnis
 

„Small is beautiful“ ist die Devise der modernen Elektronik

Die Steigerung von „klein“: Mini, Mikro, Nano

Mikro-Systemtechnik als Schlüsseltechnologie für das 21. Jahrhundert
Von Markus Bohn
Mit der Erfindung des Transistors 1947 nahm die Revolution der Elektronik ihren Lauf. Der Trend geht hin zu immer kleineren, gleichzeitig aber auch immer leistungsfähigeren Steuerungssystemen. Dazu mussten zugleich neue Technologien in der Chip-Herstellung, beispielsweise, aber auch stärkere Mikroskope entwickelt werden, um den „Durchblick“ zu behalten. Vorbild ist die Natur, wo sich alles im kleinsten Maßstab abspielt, etwa in der Zelle. Die Anwendungsmöglichkeiten dieser Mikro-Systemtechnik sind unendlich breit, von der Technik im Haushalt bis hin zur Medizin.
Red.


Der erste Transistor

Auf einem groben Klotz steht – mit der Spitze nach unten – ein grober Keil, gehalten von einem Draht, der an eine verbogene Büroklammer erinnert. Reichlich plump wirkt dieses Gebilde. Eine moderne Kleinplastik ? Keineswegs.
Tatsächlich handelt es sich um eine Versuchsanordnung, die kurz vor Weihnachten 1947 den Spitzenmanagern der amerikanischen Bell Telephone Laboratories vorgeführt wurde. Dass dieses merkwürdige Objekt eine technische Sensation verhieß, war allen Beteiligten sofort klar. Dass es die Welt radikal verändern würde, vielleicht mehr noch als einst die Erfindung der Dampfmaschine, das konnte man damals allerdings noch nicht voraussehen.
Der 16. Dezember 1947 gilt heute offiziell als der Geburtstag des Transistors. Da zeigte sich im Labor zum erstenmal der gewünschte Effekt. Bei der Demonstration vor den Bell-Managern, eine Woche später, erfüllte dieses klobige Ding bereits fast alle Funktionen der voluminösen und stromfressenden Verstärkerröhren mit Glühkathode, die noch bis in die 60er Jahre in den heimischen Musiktruhen und Fernsehgeräten nicht nur zu finden, sondern auch immer wieder zu ersetzen waren.
Die Idee, kalte Kristalle statt heißer Röhren als Strom- und Spannungsverstärker zu verwenden, war schon etliche Jahre früher geboren worden, jedoch immer wieder gescheitert am Schmutz. Ein ganz kleines bisschen Schmutz ist ja durchaus erwünscht  bei Kristallen und verleiht manch blasser Erscheinung erst ihren Reiz. Spuren von Eisen und Titan z. B. machen aus bleicher Tonerde den strahlend blauen Saphir, Chromoxide hingegen veredeln dasselbe Mineral zum leuchtend roten Rubin. Zuviel Dreck indes raubt dem Kristall die Schönheit. Und ganz ähnlich verhält es sich auch mit den elektrischen Eigenschaften. Halbleiterbauelemente, wie sie heute in jedem elektronischen Gerät stecken, bestehen aus extrem reinen Kristallen, denen ganz gezielt winzige Spuren fremder Substanzen zugemischt sind. Oft nur im Verhältnis 1 zu 1 000 000. Die Fremdatome verursachen gewollte Störungen im ansonsten perfekten Kristallgitter und verleihen dem Material erst das gewünschte, maßgeschneiderte elektrische Verhalten. Intelligent kombiniert zu Halbleiter-Sandwiches erhält man so schließlich alle möglichen elektronischen Grundbausteine.
Das erste funktionierende Modell eines Transistors blieb zunächst sechs Monate unter Verschluss. So lange dauerte es, bis die Patente abgesichert waren. Dann freilich nahm die Revolution der Elektronik ihren Lauf. Und keine zehn Jahre später (1956) erhielten drei Mitstreiter der Transistorgruppe in den Bell Telephone Laboratories den Physik-Nobelpreis. Zwei von ihnen, John Bardeen und Walter Brattain, als die eigentlichen Väter des ersten Punkt-Transistors, und der zunächst etwas frustrierte und kaum beteiligte Leiter der Arbeitsgruppe, William Shockley, für seine nachgeschobene Theorie dazu und für die Erfindung des Flächentransistors.
In zwei Varianten eroberte der Transistor zunächst den Markt:
Als dreibeiniger, erbsenkleiner  Winzling im schwarzen Kunststoffgewand wird er auf Leiterplatten gelötet und dient dort als universelles Steuerelement. Und im münzgroßen, hutförmigen Metallgehäuse findet man ihn – auf Kühlrippen geschraubt – als Leistungsverstärker.
Bis in die 60er Jahre war „Transistor“ nicht nur der Fachbegriff für ein elektronisches Bauteil, sondern zugleich auch Synonym fürs Taschen- oder Kofferradio.
Doch die Unterhaltungselektronik ist nur eine Domäne dieser High-Tech-Kristalle. Und noch nicht einmal die wichtigste.

Erst der Transistor macht die Elektronengehirne zu verlässlichen Datenknechten

Der erste programmgesteuerte elektronische Rechner ENIAC stammt aus dem Jahr 1946. Er ist also ein Jahr älter als der erste Transistor und war noch mit etwa 18 000 Röhren bestückt. Rein statistisch muss dieses Technikmonster etwa alle halbe Stunde versagt haben, weil eine der Röhren durchgebrannt war. Erst durch den Transistor wurden die Elektronengehirne zu einigermaßen verlässlichen Rechenknechten. Hochleistungsmaschinen, wie die Personal-Computer, die wir heute kennen, wären freilich auch damit nicht zu realisieren. Denn allein das Herzstück dieser PC, der Prozessor, enthält auf einer Fläche von nur wenigen Quadratzentimetern mehrere Millionen Transistoren. Aus einzelnen dreibeinigen Transistormännchen aufgebaut,  würde man schon dafür eine Fläche von gut 100 Quadratmetern benötigen. Zu groß für den Schreibtisch, und unbezahlbar obendrein.
Small is beautiful lautet die Devise in der modernen Elektronik. Den ersten Durchbruch brachten die Integrierten Schaltkreise, die IC’s, Anfang der 60er Jahre. Diese Daumennagel kleinen, käferförmigen Bauelemente vereinigten in ihren Kunststoffgehäusen noch vergleichsweise simple Schaltungen. Vom Mini-Verstärker bis zum kompletten Radio. Doch die Chiphersteller packten immer mehr Transistoren zusammen und so wurde aus der Mini-Elektronik die Mikro-Elektronik:
Um 1970 passten etwa 1000 Transistoren auf einen Chip, 1980 bereits 100 000 und heute sind Chips mit mehr als 100 000 000 (Einhundert Millionen!) Transistoren auf dem Markt. Ein Ende dieser Entwicklung ist noch nicht absehbar. 
Eine der Voraussetzungen für diese atemraubende Miniaturisierung war die sogenannte CMOS-Technologie (Complementary Metal Oxide Semiconductor): Durch spezielle Materialien (Metalloxide) und eine trickreiche Anordnung brauchten die einzelnen Transistoren immer weniger Strom. Und – das ist das Entscheidende:  Demzufolge entwickelten sie auch immer weniger Wärme, die durch Kühlung abgeführt werden muss.

Fortschritte in der Chip-Produktionstechnik

Eine andere Voraussetzung waren Fortschritte in der Chip-Produktionstechnik. Die winzigen Leiterbahnen und Funktionseinheiten werden in den Siliziumträgern fototechnisch bzw. lithografisch erzeugt: So wie man ein Negativ auf Fotopapier belichtet, überträgt man ein Abbild der gewünschten Schaltkreise zunächst von einer Maske auf die Siliziumscheibe (Wafer), die mit einer lichtempfindlichen Lackschicht  überzogen ist. Mit verschiedenen Ätztechniken erhält man dann die realen Strukturen im Silizium.
Schicht für Schicht entstehen so die Chips. Wie klein die Strukturen sein können, hängt bei der Lithografie vor allem von dem „Medium“ ab, mit dem man „belichtet“. Je kleiner die Wellenlänge, desto feiner. Sichtbares Licht ist längst zu „grob“. 
Röntgen- und Elektronenstrahlen sind das „Licht“ im Mikrokosmos. Sie erfordern aber einen enormen technischen Aufwand. Es ist wie in der Mikroskopie. Je winziger die Objekte, desto größer sind die Apparate. Ein Lichtmikroskop, das maximal 2000-fach vergrößern kann, ist ungefähr so groß wie eine Kaffee-Maschine. Ein übliches Elektronenmikroskop für mehr als 100 000-fache Vergrößerungen hat schon die Ausmaße eines großen Schreibtisches. 

Durchblick im Mikrokosmos mit Hilfe des Elektronenmikroskops …

Das Elektronenmikroskop wurde Ende der 20er Jahre von Ernst Ruska an der Technischen Universität Berlin erfunden und seit Ende der 30er Jahre – zuerst von Siemens – als kommerzielles Forschungsinstrument gebaut. Es hat vor allem in Biologie und Medizin bahnbrechende Fortschritte ermöglicht, ist aber bis heute auch ein wichtiges Hilfsmittel in vielen anderen Wissenschaften. Mehr als 50 Jahre hat es jedoch gedauert, bis Ernst Ruska für diese segensreiche Erfindung den verdienten Nobelpreis erhielt. Und er wäre vermutlich überhaupt leer ausgegangen, hätten nicht zwei andere Forscher zu Beginn der 80er Jahre ein ganz neuartiges Mikroskop entwickelt, das noch wesentlich kleinere Objekte sichtbar machen kann, nämlich einzelne Atome: das Raster-Tunnel-Mikroskop. Gerd Binnig und Heinrich Rohrer, zwei Physiker am IBM-Forschungslabor in Rüschlikon (Schweiz), tüftelten dieses Wunderwerk der Präzision aus. Und als man in der Königlich Schwedischen Akademie der Wissenschaften die zweifellos richtige Entscheidung traf, dafür einen Physik-Nobelpreis zu verleihen, besann man sich auch der Verdienste von Ernst Ruska und teilte die Auszeichnung 1986 unter den dreien auf. 
Das Elektronenmikroskop von Ernst Ruska funktioniert im Prinzip wie ein optisches Instrument. Anstelle von sichtbarem Licht verwendet man jedoch – wie der Name sagt – Elektronenstrahlen. Da die Elektronen eine (negative) elektrische Ladung tragen, lassen sie sich durch elektromagnetische Felder beschleunigen und ablenken. Das macht man sich ja auch in Fernseh- und Computerbildschirmen zunutze, wo Elektronenstrahlen zeilenweise die Bilder erzeugen. Ganz analog kann man die Elektronenstrahlen auch so ablenken, dass sie wie Licht in Glas gebrochen werden. Solche „elektromagnetische Linsen“ hat Ernst Ruska in den 20er Jahren erstmals konstruiert. 

… und des Raster-Tunnel-Mikroskops

Ganz anders hingegen arbeitet das Raster-Tunnel-Mikroskop. Hier führt man eine unvorstellbar feine Sonde zeilenweise über die zu untersuchende Oberfläche und tastet sie gewissermaßen ab. Die Spitze der Sonde, die nur noch aus einem einzigen Atom besteht, darf die Oberfläche jedoch nicht berühren. Mit einer raffinierten Steuerung sorgt man dafür, dass der Abstand zwischen Spitze und Oberfläche stets konstant bleibt. Die Auf- und Abbewegungen der Sonde werden registriert und liefern pro Zeile ein Höhenprofil der Oberfläche. Und aus vielen solcher Zeilen entsteht schließlich ein dreidimensionales Abbild. Die Oberfläche wird also berührungslos „abgetastet“. Das klingt simpel. Aber man muss sich die Präzision vor Augen führen, die hier nötig ist: Der Abstand zwischen Sondenspitze und der zu untersuchenden Oberfläche beträgt nur Millionstel Millimeter. Technisch ist das nur möglich, weil sich die Natur in diesen winzigen Dimensionen anders verhält als wir es im Alltag kennen. Hier gelten die Gesetze der Quantenphysik. Und die erlauben es beispielsweise, dass zwischen Sondenspitze und Untersuchungsobjekt ein elektrischer Strom fließt, obwohl beide keinen Kontakt haben. „Tunnel-Effekt“ nennen das die Physiker, weil die elektrischen Ladungsträger eine eigentlich unüberwindliche Energiebarriere gleichsam „durchtunneln“.  Da die „Tunnel-Stromstärke“ direkt gekoppelt ist an den Abstand zwischen Sondenspitze und Oberfläche, hat man damit eine Messgröße, die es technisch ermöglicht, diesen Abstand konstant zu halten. Und daher hat dieses Gerät auch seinen Namen.

Das neue Zauberwort heißt Nanotechnologie

Das Raster-Tunnel-Mikroskop (RTM) steht  am Anfang einer neuerlichen Revolution, die eben erst beginnt. Nanotechnologie heißt das Zauberwort, das derzeit die Phantasien auch von solchen Naturwissenschaftlern und Technikern ins Kraut schießen lässt, die sonst eher nüchtern und sachlich denken. Denn mit dem RTM und seinem Zwillingsbruder, dem Raster-Kraft-Mikroskop rückt nun in den Bereich des Möglichen, was anno 1959 noch bloße Science-Fiction war. Damals, genau am 29. Dezember 1959, hielt der berühmte Physiker und Nobelpreisträger Richard P. Feynman am ebenso berühmten California Institute of Technology einen Vortrag, den nicht wenige als amüsante Spinnerei abtaten. „Warum sollte es nicht möglich sein, den Inhalt der 24 Bände der Encyclopedia Brittannica auf den Kopf einer Stecknadel zu schreiben?“, fragte Feynman rhetorisch und rechnete vor, dass sich tatsächlich alle „Druckpunkte“ aller Seiten dieses umfangreichen Lexikons als 25 000-fach verkleinertes „Faksimile“ auf dieser winzigen Fläche unterbringen lassen. Wobei jeder „Druckpunkt“ noch immer knapp 1000 Atome der Metalloberfläche bedecken würde. Inzwischen kann man sogar einzelne Atome mit dem Raster-Kraft-Mikroskop „aufpicken“ und punktgenau auf einer Oberfläche platzieren. 
Und mit dem RTM lässt sich das fertige Punkte-Bild auch betrachten.
Das Gedanken-Experiment Feynmans ist damit – jedenfalls im Prinzip – schon um Größenordnungen übertroffen, auch wenn die Technik natürlich noch weit davon entfernt ist, auf diese Weise Information in großem Umfang zu speichern und zu lesen.
Feynmans Visionen gingen aber bereits 1959 weit darüber hinaus. Würde man die Information nicht als (analoges) Faksimile speichern, sondern digital kodiert, und außerdem nicht nur auf einer Fläche, sondern in einem kleinen Würfel, dann müsste der höchstens eine Kantenlänge von 0,1 Millimetern haben, um die gesamte Information aufzunehmen, die in allen Büchern, Zeitschriften und sonstigen Dokumenten der amerikanischen Library of Congress zusammen enthalten ist. Das gesamte Wissen der Menschheit ließe sich also – wenn auch vorerst nur rein theoretisch – in einem Staubkorn konservieren. Wobei pro Bit immer noch großzügige 100 Atome zu Verfügung stehen würden. „There is plenty of room at the bottom. Don’t tell me about microfilm!“, scherzte Feynman.
In der Nanowelt ist in der Tat reichlich „Spielraum“, weil alles unvorstellbar klein ist. Nanos, das griechische Wort für „Zwerg“, steht in der Physik für „Milliardstel“. „Nano“ ist also 1000-mal kleiner als „Mikro“ (Millionstel) und strapaziert unsere Vorstellungskraft gewaltig.

Die Natur macht es uns vor

Könnte man einen Millimeter aus Gummi auf die Länge von einem Kilometer dehnen, dann wäre ein Nanometer gerade mal ein Millimeter dieses Kilometers.
Kann man mit derart winzigen Strukturen in der „normalen“ Technik und im Alltag überhaupt etwas Sinnvolles anfangen? Und ob! Die Natur macht es uns ja vor.
Der Stoffwechsel, der in jeder lebenden Zelle abläuft, ist im Grunde nichts anderes als „nasse“ Nanotechnologie, meint z. B. der Nobelpreisträger Richard Smalley. Wer die kompliziert gebauten Proteine nur als „Chemikalien“ sieht, denkt zu kurz. Schaut man sich deren Funktionsweise in Modellen genauer an, entpuppen sie sich als regelrechte „Miniaturmaschinen“. Zusammengebaut werden diese Maschinen wiederum von anderen Nanomaschinen. Jede lebende Zelle ist so betrachtet, eine gigantische Nanofabrik. Warum sollte es nicht möglich sein, nach dem Vorbild der Natur auch eine „trockene“ Nanotechnologie zu entwickeln ? 
Ernst zu nehmende Wissenschaftler träumen z. B. schon von winzigen Robotern, die Krebszellen erkennen und vernichten können. Aber noch hat niemand eine realistische Vorstellung davon, wie man solche komplexen Maschinen aus Tausenden von Atomen bauen könnte. Schon Richard Feynman hat in seinem visionären Vortrag von 1959 solche Ideen präsentiert und kam zu dem Schluss: 
„Die Prinzipien der Physik sprechen, soweit ich sehe, nicht gegen die Möglichkeit, Dinge Atom für Atom zu manövrieren. Das verletzt keine Gesetze. Im Prinzip kann man das tun. Dass es praktisch noch nicht gemacht wurde, liegt daran, dass wir zu groß sind.“ 
Wie gesagt: Nicht nur im Prinzip, sondern real lassen sich einzelne Atome heute mit dem Raster-Kraft-Mikroskop manipulieren. Dieses Gerät ist dem Raster-Tunnel-Mikroskop recht ähnlich. Der wesentliche Unterschied besteht darin, dass die Sondenspitze die Oberfläche tatsächlich berührt und einzelne Atome aufpicken und gezielt wieder absetzen kann, gesteuert durch den elektrischen Strom, den man durch die Spitze fließen lässt. 
IBM-Forscher haben auf diese Weise schon vor Jahren die drei Buchstaben „IBM“ mit insgesamt 35 Xenon-Atomen auf eine Nickeloberfläche „geschrieben“.
Aber bislang ist es nicht möglich, auf diese Weise komplizierte, dreidimensionale Moleküle zu produzieren. Und niemand kann seriös voraussagen, wie schnell sich dieses Gebiet entwickeln wird. 

Drei Wege in die Nano-Welt

Praktisch stoßen Wissenschaftler und Techniker heute aus zwei „Richtungen“ in die Nanowelt vor. Gleichsam „von oben“ durch weitere Verkleinerung der Mikro-Elektronik zur Nano-Elektronik. Und „von unten“ durch chemische Synthese großer Nano-Moleküle.
Ein dritter Weg in die Nanowelt wird schon seit vielen Jahrzehnten beschritten, ohne dass man das bislang Nano-Technologie genannt hat. Denn der Leitstern auf diesem Weg war vorwiegend praktische Erfahrung, nicht theoretisch fundiertes Wissen. Gemeint ist die Veredelung von Oberflächen durch chemisch-physikalische Methoden. Beispiele dafür sind das Härten von Metallen und die Herstellung von speziellen Hochleistungskeramiken. In beiden Fällen beeinflusst man z. B. durch gezielte Wärmebehandlung das Feingefüge der Werkstoffe, wobei winzige Kristallite entstehen im Nanometer-Bereich. Auch die magnetischen Eigenschaften bestimmter Metalle lassen sich auf diese Weise deutlich verbessern, was mit dazu beigetragen hat, dass die Speicherdichte von Computer-Festplatten in den letzten Jahren enorm zugenommen hat.
Technisch und wirtschaftlich ist dieser dritte Weg sehr bedeutsam. Und je mehr auch hier theoretisches Wissen zur Richtschnur wird, desto rascher wird man weitere Fortschritte erzielen. Die Entwicklung verläuft hier jedoch eher evolutionär, denn revolutionär.
Was auf den beiden anderen Wegen geschieht, kann man kaum vorhersagen. 
Echte Revolutionen sind hier aber durchaus denkbar.
Von der Mikro- zur Nano-Elektronik gelangt man durch immer bessere Lithografiemethoden bei der Fertigung der Chips. Aber es gibt eine natürliche Grenze bei der Miniaturisierung der „klassischen“ Elektronik, die man nicht einfach überschreiten kann. Werden z. B. die elektrisch isolierenden Schichten in den Chips zu dünn (ca. 10 Nanometer), dann verlieren sie ihre Funktion, d. h. sie verlieren ihren elektrischen Widerstand. Es tritt derselbe Effekt ein, der das Raster-Tunnel-Mikroskop erst ermöglicht hat: der „Tunnel-Effekt“. Wir befinden uns plötzlich in Dimensionen, wo die Gesetze der klassischen Physik nicht mehr gelten, sondern nur noch die Gesetze der Quantenphysik. Das heißt aber keineswegs, dass die Miniaturisierung hier Halt machen müsste. Im Gegenteil. Es eröffnen sich ganz neue Möglichkeiten für eine „Quanten-Elektronik“. Nicht mehr „Ströme“ von mehreren hunderttausend Elektronen müssen in diesen Bauteilen fließen, um eine Schaltfunktion auszuüben. Vielmehr wird das einzelne Elektron, also ein einzelnes Elementarteilchen, zur Schaltgröße und Informationseinheit. Computer mit Rechengeschwindigkeiten und Speicherkapazitäten, die alles heutige weit in den Schatten stellen, werden damit möglich (Vgl. Beitrag Klaus Herbst). 

Das Schlüssel-Schloß-Prinzip der Nano-Chemie

Ebenso vielversprechend ist der Weg von unten nach oben, der Aufbau von 
Nano-Maschinen durch chemische Synthese. Die Entwicklung steckt hier zwar noch in den Kinderschuhen, aber das Kind macht bereits die ersten Gehversuche. 
„Nano-Chemie“ unterscheidet sich wesentlich von der „normalen“ Chemie. Vor allem dadurch, dass Nano-Maschinen in der Regel nicht aus einem einzigen Molekül bestehen, sondern aus mehreren verschiedenen Molekülen, in die z. B. auch Salze (Ionen) oder einzelne Atome „eingebaut“ sein können. „Supra-molekulare Chemie“ heißt dieses Forschungsgebiet, das seine Vorbilder vor allem in der belebten Natur bzw. in der Biochemie sucht und findet. In der supra-molekularen Chemie spielen nicht einzelne „funktionelle Gruppen“ die Hauptrolle, also bestimmte Teile der Moleküle, die zu typischen chemischen Reaktionen fähig sind. Mindestens ebenso wichtig ist hier die Geometrie, also die räumliche Struktur der einzelnen Moleküle. Kurz: Die verschiedenen Bausteine, die sich zu einer Nano-Maschine zusammenfügen sollen, müssen auch in Größe und Form exakt zueinander passen, wie ein Schlüssel zum Schloß. Dies ist ja ein grundlegendes Konstruktionsprinzip der Natur, mit dem sich Biochemiker tagein tagaus beschäftigen. Nach diesem Schlüssel-Schloß-Prinzip unterscheidet z. B. unsere Immunabwehr zwischen körpereigenen und fremden Zellen. Und nach diesem Prinzip erkennen die Geruchssensoren in unserer Nase bestimmte Düfte. 
Für die Konstrukteure künftiger Nano-Maschinen hat das ganze vor allem folgenden Vorteil: Die einzelnen Bauteile einer Nano-Maschine finden sich auch in einem Meer von anderen Teilen gewissermaßen von selbst und fügen sich auch von selbst zusammen. Man braucht keine „Nano-Roboter“, um Nano-Maschinen zusammen zu bauen. Das funktioniert „automatisch“ und mit größter Präzision (Selektivität) auch in einer chemischen „Eintopf-Reaktion“. Die große Kunst der Chemiker besteht darin, solche exakt passenden Schlüssel- und Schloßmoleküle zu entwerfen. Das ist auch mit den heute verfügbaren Computerprogrammen, wie sie beispielsweise beim Drug-Design eingesetzt werden, also beim Austüfteln neuer Wirkstoffe für Medikamente, keineswegs eine leichte Aufgabe. Aber das ist der künftige Trend. Und es ist nicht erstaunlich, dass man mögliche Anwendungen für solche künstlichen Nano-Maschinen vor allem auch in der Medizin erwartet. 
Auch die berühmten Kohlenstoff-Fußbälle und ihre zahlreichen chemischen Verwandten aus dem großen Clan der Fullerene sind Teil der Nano-Technologie. Diese Moleküle, die aus reinem Kohlenstoff bestehen und kugel- oder röhrenförmige Käfigstrukturen bilden können, wurden Mitte der 80er Jahre entdeckt, und brachten 1996 drei Chemikern den Nobelpreis ein. Eine große Zukunft wurde und wird den Fullerenen vorhergesagt, weil man die Größe der Käfige – zumindest  theoretisch – fast beliebig maßschneidern kann. Lagert man darin Metallatome oder irgendwelche Moleküle ein, lassen sich – so hofft man jedenfalls – neue Halb-, Licht- und Supraleiter für die Elektronik herstellen, neue Katalysatoren für die Chemie, neue Farb- und Kunststoffe. Ferner könnten die Käfige als schützende „Verpackung“ dienen für empfindliche Arzneimittel, die man damit sicher bis zu den Stellen im Körper transportiert, wo sie wirken sollen. Die Liste denkbarer Anwendungen ist sehr lang. Aber das meiste liegt noch in relativ weiter Ferne. Und von der Euphorie, die noch vor zehn Jahren unter den Wissenschaftlern herrschte, ist kaum noch etwas zu spüren. Langwierige Grundlagenforschung steht auf dem Programm.

Von allem etwas: Mikro-Systemtechnik

Rasante Fortschritte verzeichnet derzeit hingegen ein Gebiet, das Mikro-Elektronik, Mikro-Mechanik und Nano-Technologie vereint: die Mikro-Systemtechnik. Man gibt den Chips der Mikro-Elektronik sozusagen Sinnesorgane sowie einen Bewegungsapparat, damit sie auf Umwelteinflüsse reagieren können. So erhält man auf kleinstem Raum und relativ kostengünstig komplette Steuer- und Regelgeräte. Künstliche Nasen etwa, die den Braten riechen, bevor er anbrennt, und die die Temperatur im Backofen entsprechend verringern. 
Mit lithografischen Verfahren lassen sich nicht nur die Labyrinth-Strukturen der Chips in Silizium ätzen. Man kann damit auch mikro-mechanische Bauteile höchster Präzision herstellen. Zahnräder, die kleiner sind als ein Ameisenkopf, ja ganze Mikromotoren für Mikropumpen beispielsweise. Auch  mit Lasern lassen sich diese winzigen Teile äußerst genau bearbeiten. 
Und was die möglichen Anwendungsgebiete der Mikro-Systemtechnik betrifft, sind der Phantasie kaum Grenzen gesetzt.
Längst etabliert, aber weiter verbesserungsfähig sind z. B. die Druckköpfe von Tintenstrahldruckern, die Schreib-/Leseköpfe in Festplatten, endoskopische Instrumente für die Minimal-Invasive-Medizin, Auslöser für den Airbag.
Daten- und Medizintechnik, Fahrzeug- und Verkehrstechnik, Telekommunikation und Umwelttechnik, Energietechnik und Maschinenbau – es gibt praktisch keinen Bereich, der nicht von der Mikro-Systemtechnik profitieren könnte. Von der Bundesregierung wird sie deshalb schon lange als Schlüsseltechnologie für das 21. Jahrhundert eingestuft und gefördert. Erst kürzlich ist dieses Förderprogramm neu aufgelegt worden.
Ziel ist vor allem, die bereits vorhandenen Techniken und Anwendungsideen möglichst rasch in Produkte umzusetzen. Denn das Marktpotenzial der Mikro-Systemtechnik wird von Experten sehr hoch veranschlagt: 40 Milliarden Ecu sollen damit bereits im Jahr 2002 umzusetzen sein. Und gerade in solchen High-Tech-Bereichen gilt die Weisheit von Michail Gorbatschow: „Wer zu spät kommt …“




Die USA, Japan und Deutschland bilden das Spitzentrio beim weltweiten Handel mit Hightech-Produkten. Das ist das Ergebnis einer Studie über die technologische Leistungsfähigkeit Deutschlands, die vom Bundesforschungsministerium vorgelegt wurde. Danach erreichten die USA bei Spitzen- und höherwertiger Technik einen Weltmarktanteil von fast 19 Prozent; japanische Unternehmen bestritten 15,8 Prozent des Weltexports, und 14,4 Prozent der weltweit gehandelten Hightech-Güter stammten aus deutscher Produktion. Damit haben die Deutschen an Boden verloren. 1995 hatten sie noch einen Anteil von 16 Prozent. Auch Japan gehört zu den Verlierern. Nur die USA konnten ihren Marktanteil ausbauen. 
 Globus

Der europäische Telekommunikationsmarkt wächst und wächst. Bereits im nächsten Jahr wird Schätzungen zufolge ein Umsatz von rund 300 Milliarden Euro erreicht. In Deutschland erzielt die Branche in diesem Jahr Einnahmen von fast 60 Milliarden Euro. Ein Ende dieser Entwicklung ist nicht in Sicht. Im Gegenteil, der neue Mobilfunk-Standard UMTS wird nach Expertenmeinung einen neuen Wachstumsschub auslösen. Zur Zeit versuchen die Netzbetreiber in mehreren Ländern Europas, an eine der knappen UMTS-Lizenzen heranzukommen. In Deutschland beginnt die Versteigerung der zukunftsträchtigen Lizenzen am 31. Juli des laufenden Jahres. 

Globus

    Copyright ©   2000  LpB Baden-Württemberg   HOME

Kontakt / Vorschläge / Verbesserungen bitte an: lpb@lpb-bw.de