Hier der Bericht von unserem Kollegen Bernhard Maischberger zum Vortrag von Walter Riess im letzten IF-Forum „Mensch&Wissen(schaft)“:

Der letzte Vortrag im IF-Forum in 2011 versprach sehr interessant und informativ zu werden, hatten wir doch mit Herrn Dr. Riess einen Forscher von der vordersten Front der IBM Research zu Gast.

Aus der reichhaltigen Fülle an Informationen und Zusammenhängen kann hier im Artikel nur ein kleiner Teil erwähnt werden.

Die erste Definition war:
Was ist Nanotechnologie?
Alles was sich im Bereich von 1 – 100 nm bewegt!

Diese Definition legt gleich den Bereich fest, in dem wir uns bewegen. Zum Vergleich: ein menschliches Haar fällt da mit seinen 60.000 nm Durchmesser schon gewaltig aus dem Bereich. Am unteren Rand, also bei 1 nm, bewegt man sich „nur“ noch im Bereich einiger (genauer um die fünf) C-Atome „nebeneinander“ aufgereiht.

Seit etwa 1980 kann man in der IT, oder besser in der Chiptechnologie, um die es ja beim Vortrag ging, von Nanotechnologie nach der obigen Definition sprechen.

Der springende Punkt bei der Nanotechnologie ist, dass durch die Verkleinerung der betrachteten Strukturen ganz eigene physikalische Phänomene auftreten. Beispiele aus der Natur sind der viel zitierte Lotuseffekt, bei dem durch die mikroskopisch sehr unebene (= große) Oberfläche der Pflanze nichts daran haften bleibt.

Diese „Technologie“ wird inzwischen auch bei der Beschichtung von Dachziegeln oder andern Werkstoffen genutzt. Oder die „Färbung“ eines Schmetterlingsflügels, der eigentlich gar keine Farbe hat, sondern nur durch den Effekt der Brechung an winzigen Strukturen atemberaubend „farbig“ schillert.

Wieder zurück in die Technik:

Zu den „Chips“, deren Strukturbreiten nur noch 35 nm betragen oder zu den Festplatten, bei denen die „Überflughöhe“ des Schreib-Lesekopfes nur noch etwa 10 nm (Ein 5000stel Haaresbreite) beträgt. Das ist so, als ob ein Airbus 380 in der Höhe von einem Zentimeter über der Erde fliegen müsste. Das stellt natürlich ganz erhebliche Anforderungen an die ebene Beschaffenheit der Oberfläche der „Harddisk“.

Wenn man die zunehmende Miniaturisierung der Hardware betrachtet, hat die IT Industrie in den letzten 100 Jahren eine unglaubliche Entwicklung erreicht. Um zwölf Nullen (von 1 auf 1.000.000.000.000tel) ist sie geschrumpft. Dies hat in dieser Zeit noch überhaupt keine Technologie oder Industrie erreicht.

Die unglaubliche Entwicklung geht von Relais über Röhren über diskrete Transistoren hin zu den modernen Prozessoren und Speicherchips. Bei der heutigen Dichte können so auf einem Quadratzentimeter großen Chip etwa 250.000.000 Millionen Transistoren (Schaltelemente) integriert werden. In  2012 wird mit der nächsten Generation aller Wahrscheinlichkeit die 1 Milliarde Transistoren-Grenze pro Chip überschritten werden.

Das 20 Jahre lange mögliche Verfahren mit der stetigen Verkleinerung von Strukturen hat aber einen entscheidenden Haken. Seit ein paar Jahren wird in immer mehr Bereichen der Miniaturisierung die Grenze zur „Diskontinuität“ überschritten.

Wenn man „einfach“ immer weiter verkleinert, gerät man in immer neue physikalische Grenzbereiche. Z.B. kann man die Schaltspannung, die man zum schnellen Schalten (hohe Taktraten), benötigt nicht mehr stark weiter verkleinern. Oder die Schichtdicke der Isolation, die nur etwa 1 /10 der Gatelänge ausmacht, ist mit ca. 3 nm schon heute im Bereich von nur noch einigen „Atomen“ angelangt. So müssen ganz neue Ideen entwickelt und dann auch noch technologisch in der Produktion umgesetzt werden.

Bei so viel Verkleinerung und damit Leistungssteigerung kann einem schon fast schwindlig werden, wo das alles noch hinführen soll.

In einem entscheidenden Punkt ist das menschliche Gehirn und die biologischen Systeme jeder Technologie immer noch haushoch überlegen. Nämlich dann, wenn es um Energieeffizienz geht. So benötigt das „Gehirn“ nur etwa 30 – 50 Watt zum Betrieb, wohingegen alle bisher entwickelten technischen Systeme mit auch nur annähernd der gleichen „Rechen-Leistung“ einen um mehrere 10er Potenzen höheren Energieverbrauch besitzen. Das ist denn auch die wesentlichste Herausforderung der Zukunft, die enormen Energieverbräuche unserer allgegenwärtigen Elektronik vor allem im sogenannten „Idle-State“, also im Leerlauf, zu drosseln.

Insgesamt ein dicht gepackter und zum Nachdenken anregender Vortrag, der bei vielen hochinteressanten Fragen der Zuhörer in der anschließenden Diskussion und den immer präzisen und offenen Antworten unseres Vortragenden noch lange nachwirken wird.

Bernhard Maischberger

Ich war natürlich auch dabei und durfte die Diskussion moderieren. Mir sind drei Aussagen von Herrn Dr. habil Walter Riess besonders hängen geblieben:

„In jedem Prius sind 10 Kilogramm ’seltene Erden‘!“
zu der Frage zum Einsatz und der Wiederverwendung von wertvollen Rohstoffen.

„Exponentielle Kurven sind immer gefährlich!“
zur Diskussion über Wachstum.

„Das ganze wird langsam schon unheimlich!“
zur Komplexität.

Mir hat besonders gut gefallen, dass Walter Riess uns mit Technologie faszinierte, aber immer die ganzheitliche Verantwortung der Technologie gegenüber Umwelt und Gesellschaft herausarbeiten konnte.

RMD

P.S.
Sobald ich das Video zum Vortrags bekomme, werde ich es unserem Referenten vorlegen und nach Genehmigung in meinen Youtube-Channel RolandDuerre einstellen.

Be Sociable, Share!

2 Kommentare zu “Bericht: IF-Forum „Nanotechnologie – Zukunft der IT“, Vortrag von Dr. habil Walter Riess”

  1. Nico (Dienstag, der 22. November 2011)

    Roland, danke für den Bericht über eine offenbar sehr interessante Veranstaltung.

  2. Chris Wood (Mittwoch, der 23. November 2011)

    Interesting that quantum effects and the uncertainty principle do not yet seem to be problematic for further miniaturisation. I would have thought that that was getting near.

Kommentar verfassen

*