Logo Leibniz Universität Hannover
Logo: SRA/Leibniz Universität Hannover
Logo Leibniz Universität Hannover
Logo: SRA/Leibniz Universität Hannover
  • Zielgruppen
  • Suche
 

Der Organische Computer

Positionspapier der Gesellschaft für Informatik (GI) und der Informationstechnischen Gesellschaft im VDE (ITG) 

Computer- und Systemarchitektur im Jahr 2010

I Organische Computersysteme

Die Fortschritte auf dem Gebiet der Rechnerarchitekturen, wie sie seit Beginn der sechziger Jahre zu beobachten sind, werden sich auch in absehbarer Zukunft mit gleicher Geschwindigkeit fortsetzen. Dadurch werden Computersysteme bei gleichen Kosten leistungsfähiger oder bei gleicher Leistung billiger und kleiner. Allerdings nimmt auch die Kom-plexität dieser Systeme zu – was ein neues, mehr am Menschen als an der Technik ausgerichtetes Nutzungs- und Kooperationsmuster erfor-derlich macht. So werden sich Computersysteme der Zukunft stark an die Belange menschlichen Lebens und Zusammenlebens anpassen. Sie werden flexibler und autonomer. Dazu werden sie selbst lebensähnlich aufgebaut sein. Man nennt sie daher „organisch“.

Ein „organischer Computer“ ist definiert als ein selbstorganisierendes System, das sich den jeweiligen Umgebungsbedürfnissen dynamisch anpasst. Organische Computer sind selbst-konfigurierend, selbst-optimierend, selbst-heilend und selbst-schützend.

II Anwendungsszenarien für organische Computer 

Die Gesellschaft für Informatik (GI) und die Informationstechnische Gesellschaft im VDE (ITG) haben eine Fülle von Anwendungsszenarien für den organischen Computer entwickelt. Sie zeigen beispielhaft, wie die Systeme der Zukunft selbst-konfigurierend, selbst-heilend, selbst-schützend und selbst-optimierend arbeiten:

Smart Factory: Autonome Roboter können mit Hilfe spontaner Vernetzung Föderationen bilden, um anstehende Aufgaben zu erledigen. Fallen Teilsysteme aus oder sind überlastet, wird dies erkannt und die Aufgaben werden neu verteilt - selbst-konfigurierend, selbst-heilend und selbst-optimierend.

Smart Warehouse: In einem intelligenten Warenhaus lassen sich einzelne Artikel erkennen und überwachen. Schon heute können portable Geräte über Transponder mit den Etiketten der Waren kommunizieren. Bereits in wenigen Jahren werden Regale, Vorratsbehälter, Waren, Einkaufswagen und elektronische Einkaufszettel miteinander kommunizieren, um z.B. automatisch den Inhalt des Einkaufswagens zu ermitteln und den Kunden zu noch fehlenden Artikeln zu lenken. Produkte lassen sich über die gesamte Versorgungskette hinweg überwachen. So kann etwa ein Chip registrieren, ob der Tiefkühlspinat immer richtig gekühlt wurde.

Smart Network/Smart Grid: Das Internet wird Anwender im Jahr 2010 als weltweiter, heterogen aufgebauter Parallelrechner (Grid) mit Rechnerleistung versorgen. Er ist mit Hilfe intelligenter Netzwerktechnik selbst-organisierend, selbst-konfigurierend, selbst-heilend und selbst-optimierend.

Anthropomatik: Die Lebenswissenschaften gelten derzeit als eines der spannendsten Forschungsgebiete. Sie gehen unter anderem davon aus, dass Informatik und Technik in Zukunft auf die individuellen Bedürfnisse des einzelnen Menschen abgestimmt sein werden. Das interdisziplinäre Forschungsgebiet ist schwerpunktmäßig in der Informationstechnik angesiedelt. Der allgegenwärtige und umfassende Einsatz der Informatik zielt zum Beispiel auf den Ausgleich individueller Leistungseinbußen ab, die etwa krankheits- oder altersbedingt auftreten können. Der organische Computer mit seinen lebensähnlichen Eigenschaften ist die Basis für solche Anwendungen.

Der vertrauenswürdige Computer: Die Kombination aus Schutz durch Hardware-Maßnahmen und durch Kryptographie ist die Basis für den vertrauenswürdigen Computer. Er kommt dem Wunsch des Menschen nach informationeller Selbstbestimmung entgegen, falls die Integrität des persönlichen Datenbereichs sichergestellt und dem Benutzer glaubhaft gemacht werden kann. Ein Zugriff von außen kann nur erfolgen, wenn eine explizite Interaktion des berechtigten Benutzers über die Benutzungsschnittstelle vorangeht. Der vertrauenswürdige Computer kann auf eine Chipkarte reduziert werden, die über biometrische Sensorik fest an einen Benutzer gekoppelt ist. Durch kryptographische Maßnahmen lässt sich eine stufenweise Erweiterung der Sicherheitshülle erreichen. Elektronische Unterschriften werden damit möglich, ohne dass sensible Information preisgegeben wird.

Roboter im Haushalt: 39% der Frauen und 25% der Männer in Deutschland wünschen sich Roboterhilfe an erster Stelle im Haushalt - so das Ergebnis einer Umfrage des VDE zur Zukunfts-IT. Heutige Geräte sind aufgrund der noch zu einfachen Sensorik (Infrarot, Ultraschall, mechanische Kontakte) und wegen der geringen Leistung der Steuersoftware dazu erst ansatzweise geeignet. Künftige Roboter sollen bei geringeren Kosten autonom werden. Sie müssen dazu selbst-konfigurierend, selbst-heilend und selbst-optimierend arbeiten. GI und ITG gehen von einem Durchbruch in diesem Gebiet in wenigen Jahren aus. Eine Schlüsseltechnologie hierfür sind Verfahren der biologisch inspirierten Informationsverarbeitung – insbesondere des Organischen Computers.

III Hintergründe: Die Rechner- und Systemarchitektur des Jahres 2010

GI und ITG haben eine Vision zu den Rechner- und Systemarchitektu-ren im Jahr 2010 entwickelt, welche den Organischen Computer ermöglichen werden. Selbstorganisation mit all ihren Facetten wird sämtliche Komponenten eines künftigen Organischen Computers bestimmen. Und Selbstorganisation kann sich nicht auf isolierte Komponenten beschränken: Sie verlangt ein übergreifendes Zusammenspiel des Gesamtsystems.

Die Wissenschaftler kommen im Einzelnen zu folgender Einschätzung:

Die Hardware- und Software-Basis: adaptiv und flexibel

Hardware

Zur Realisierung des organischen Computers sind neue Chip-Generationen erforderlich. Sie zeichnen sich durch dynamische Rekonfigurierbarkeit, hohe Anpassungsfähigkeit, Robustheit und Fehlertoleranz aus. Diese Chips werden noch immer elektronisch realisiert werden, wobei die Nanotechnologie allerdings die Integration räumlicher Strukturen erlauben muss. Man geht davon aus, dass 3-D-Strukturen dazu beitragen werden, die Verdrahtungsprobleme der Mikroelektronik zu lösen. Rekonfigurierbare Hardware passt sich dem Bedarf an, indem Hardware-Komponenten dynamisch verschaltet werden, um gezielt bestimmte wechselnde Funktionen zu erbringen. Beim Software Defined Radio wird eine neue Hardware-Konfiguration über die Luftschnittstelle geladen, so dass sich das Gerät an neue lokale Übertragungsstandards anpassen kann.

Forschungsbedarf besteht auch auf dem Gebiet der optischen Nachrichtenübertragung, um beispielsweise eine analoge Signalerfassung mit paralleler digitaler Signalverarbeitung auf engstem Raum zu koppeln. Bei Netzwerken geht es weiterhin um hohe Bandbreiten und nied-rige Latenzen, die am ehesten durch optische Technologien erfüllt wer-den können. Der nächste Schritt dabei besteht in der Nutzung von Wellenlängen-Multiplex-(WDM)-Techniken für WAN (Wide Area Networks) und SAN (Small Area Networks).

Software 

Im Jahr 2010 wird die Komponententechnologie etabliert sein: System-Software setzt sich aus vielen und in ihrer Größe unterschiedlichen Software-Komponenten zusammen. GI und ITG gehen davon aus, dass Software-Komponenten dazu äußerst fein strukturiert sein müssen. Die Rede ist von „leicht- bis federgewichtigen“ Strukturen der System-Software, damit die Möglichkeiten der rekonfigurierbaren Hardware voll ausgeschöpft werden.

Es wird keine fest konfigurierte Standard-Software-Basis mehr geben, die identisch auf allen Knoten des organischen Computers residiert. Es ist künftig nicht mehr entscheidend, die Komponenten selbst lokal bereitzustellen. Vielmehr müssen die von ihnen erbrachten Funktionen transparent auch aus der Entfernung zugänglich gemacht werden. Organische Netzwerke werden hochgradig dynamische Software-Systeme unterstützen. Der Interoperabilität der Komponenten kommt daher zentrale Bedeutung zu.

Auch in Zukunft wird es nicht den einen Standard für Betriebssystem, Laufzeitsystem und Middleware geben, wohl aber eine Vielzahl von Spezialzwecksystemen. Die meisten der heute produzierten Prozessoren (98%) werden in eingebetteten Systemen verwendet, und daran wird sich nichts ändern, da auch der organische Computer selbst ein eingebettetes System darstellt - beziehungsweise aus einer Vielzahl eingebetteter Subsysteme besteht. Standard-APIs (Application Programming Interface) werden sich durchsetzen, die heute schon die Schnittstelle zwischen Software-Basis und Anwendungen definieren.

Die Software-Basis des organischen Computers unterscheidet sich im inneren Aufbau, in ihrer Struktur und Funktionsweise von der Software-Basis heutiger Systeme. Die Komponenten werden dynamisch bei Bedarf den jeweiligen Umständen angepasst und dann eingebunden, ausgetauscht, verlagert und/oder wieder entsorgt. GI und ITG sehen hier bis zum Jahr 2010 neue Herausforderungen bei Entwurf, Implementierung, Generierung und Maßschneiderung sowie bei der semiautomatischen Konstruktion von korrekten (Sub)-Systemen aus korrekten Software-Komponenten.

Energieeinsparung - auch bei Computern

Die Reduktion des Energiebedarfs von Mikroprozessoren und -controllern stellt eine zentrale Anforderung an zukünftige Rechnersys-teme dar und bildet damit einen wichtigen Forschungsschwerpunkt der Informatik und Informationstechnik. Zum einen ist in den immer kleiner werdenden mobilen Geräten die durch Batterien verfügbare Energiemenge begrenzt, zum anderen erzeugen auch Hochleistungsprozessoren immer mehr Abwärme pro Chipfläche, so dass eine weitere Erhöhung der Taktraten und damit der Verarbeitungsleistung ohne geeignetes Energiemanagement auf dem Chip in Zukunft nicht mehr möglich sein wird.

Energiespartechniken müssen auf vielen verschiedenen Ebenen einer Rechner- und Systemarchitektur ansetzen. Es sind dies sowohl die schaltungstechnischen Ebenen wie auch die (Mikro-)Architektur- sowie die Software- und Betriebssystemebenen. Für zukünftige Rechnersysteme ist Forschung auf allen diesen Ebenen notwendig, wobei insbesondere die Wechselwirkungen zwischen den Ebenen immer wichtiger werden.

Schnittstellen zwischen System und Anwender: anpassbar und kontext-sensitiv 

Die Gesellschaft für Informatik (GI) und die Informationstechnische Gesellschaft im VDE (ITG) gehen davon aus, dass sich Computer in der Zukunft an den Menschen anpassen müssen, nicht umgekehrt. Daher dürfte auch ein großer Teil der lokalen Rechenleistung auf die Benutzerschnittstelle verwendet werden. Die Bedienung der Computer von morgen wird weitgehend intuitiv erfolgen. Berührungsempfindliche Bildschirme, Spracheingabe und Gestenerkennung können den Rechner zum freundlichen Partner und Problemlöser machen. Die kleinen, oftmals tragbaren Computer werden in der Lage sein, Informationen und Dienste so zu filtern, dass sie der augenblicklichen Situation des Anwenders angemessen sind. Von besonderem Vorteil ist, dass die Anwender auf diese Weise nicht mit Informationen überflutet werden.

Menschen nutzen zur Informationsfilterung den lokalen Kontext: Nur die unmittelbare Umgebung ist relevant und sinnlich erfassbar. Die Eigenschaft kontext-sensitiven „Verhaltens“ wird jetzt auch technischen Systemen vermittelt. Dazu müssen sie unter anderem eine geeignete Sensorik zur Erfassung der Kontextinformation und geeignete Mechanismen zur Informationsauswahl oder -filterung besitzen. Anpassungsfähige und kontextsensitive Benutzerschnittstellen erlauben ein assoziatives Navigieren zum Beispiel bei der Abfrage von Dateien oder bei der Suche im Internet.

Die Größe von Geräten wird auch in Zukunft durch Benutzungsschnittstellen wie Display und Tastatur bestimmt. Denn die mikroelektronischen Komponenten werden weiter miniaturisiert, nicht aber der Mensch. Um sich die wachsende Funktionsvielfalt besser zunutze machen zu können, werden heutige Eingabemedien jedoch durch Sprachsteuerung und intelligente Menüauswahltechniken ergänzt oder ersetzt. Feste aber benutzerangepasste Bedienkonzepte bilden den Anfang. Ziel ist die dynamische Anpassung der Benutzungsschnittstelle an den Nutzer und die momentane Benutzungssituation: Die adaptive Benutzungsschnittstelle führt zur Personalisierung der Systemfunktionen.

Auch auf der Ausgabeseite kommen neue Verfahren auf uns zu. Mit neuen Ausgabetechniken wie dem Smart Paper lassen sich online aktualisierbare und falt- oder rollbare Zeitungen realisieren.

Ein weiterer Forschungsbereich beschäftigt sich mit der entkoppelten Benutzungsschnittstelle: Der Begriff der Entkopplung bezieht sich auf die räumliche Nähe zwischen Benutzungsschnittstelle, Rechner, Speicher und Benutzer. Wird nämlich die Kommunikation zwischen Rechnerkomponenten sehr schnell und billig, dann könnte man z.B. alle seine persönlichen Datenzusammen mit einer einfachen Benutzungsschnittstelle in Form eines PDA (Personal Digital Assistant) „in der Hosentasche“ bei sich tragen. Wir erhalten so einen Personal Server. Wird größere Rechenleistung benötigt, so benutzt man einen Compute-Server im Netz. Und reicht die einfache Benutzungsschnittstelle des PDA nicht mehr aus, so koppelt sich der Personal Server mit einer gerade in der Nähe befindlichen Tastatur und einem Bildschirm, um sie temporär mitzubenutzen. Flexibel und preiswert ist bereits heute die Entkopplung mit drahtlosen Technologien wie Bluetooth oder WLAN. Als neue Technologie zeichnet sich hier Ultra Wide Band (UWB) im Gigabit/s-Bereich ab, das die Bandbreite im Nahbereich enorm erhöht. UWB ermöglicht eine grundsätzliche Entkopplung der Rechnerkomponenten und ihre flexible Ad-hoc-Konfiguration, gemäß der Vision des organischen Computers.

Neue Kommunikations- und Verteilungsmechanismen

In organischen Computer-Systemen wird selbst ein einzelnes Gerät eines Nutzers weitgehend transparent in eine Infrastruktur eingebunden. Es kann deren Dienste nutzen und eigene Dienste und Informationen anderen zur Verfügung stellen. GI und ITG gehen davon aus, dass dazu neuartige Verteilungs- und Kommunikationsmechanismen erforderlich sind, um etwa die vorhandenen Dienste zu ermitteln und mit ihnen in Verbindung treten zu können. Dazu ist die Fähigkeit zur spontanen Vernetzung erforderlich. Middleware-Konzepte wie Jini oder Jxta werden dabei eine wichtige Rolle spielen.

In organischen Computer-Systemen werden alle Komponenten miteinander kommunizieren können, oft wird sogar die Kommunikationsfähigkeit wichtiger als die reine Rechenleistung sein. Aus Sicht von GI und ITG stellen leitungsgebundene Netze weiterhin die Basis dar, während bei Endgeräten vielfach drahtlose Verbindungen über infrastrukturbasierte Netze wie UMTS, GSM oder WLAN und infrastrukturlose Netze überwiegen. Dem Internet dürfte die Rolle des allgemeinen Bindeglieds zukommen, das die verschiedenen zugrunde liegenden Protokollansätze – etwa für Sensornetze, Fahrzeugnetze, Kleidungsnetze – überbrückt und den meisten Anwendungen eine einheitliche Kommunikationsschnittstelle anbietet. Für besonders wichtig halten wir die Programmierbarkeit und Adaptivität in zukünftigen Netzen, die eine flexible Anpassung z.B. an unterschiedliche Kostenstrukturen oder Dienstequalitäten ermöglichen.

Hohe Anforderungen an Sicherheit und Vertrauenswürdigkeit

Ein hohes Maß an drahtloser Kommunikation, anpassbare und personalisierte Systeme, Verfügbarkeit zu jeder Zeit an jedem Ort: die Zukunft stellt hohe Anforderungen an die Vertraulichkeit, Vertrauenswürdigkeit und Verlässlichkeit der Informationen und verlangt Schutz vor unberechtigtem Informationszugriff.

Die Forschungs- und Entwicklungsarbeiten im Bereich der IT-Sicherheit konzentrieren sich auf die Abwehr von Bedrohungen sowie die Funktionssicherheit. Public-Key-Infrastrukturen, biometrische Authentifizierungsverfahren, digitale Wasserzeichen oder weiter gehende Methoden zur Erhöhung der Netzwerksicherheit sind bereits verfügbar. Für den organischen Computer sind darüber hinaus Sicherheitskonzepte erforderlich, die zu einem vertrauenswürdigen Computer führen, der insbesondere die Fähigkeit zum Selbstschutz besitzt. Die Grundlage hierfür ist ein Konzept, das von definierten Systemgrenzen ausgeht und Maßnahmen zu deren Überwachung vorsieht. Der Import und Export von Informationen wird über vertrauenswürdige Teile des Systems laufen und mit Authentifizierungen einhergehen. Was die Funktionssicherheit betrifft, werden Systeme in der Lage sein, Fehler zu erkennen, zu tolerieren und möglichst weitgehend selbst zu reparieren. 

Weitere Informationen:

Thesenpapiere der Arbeitsgruppe Organic Computing: