Technologien, die unser Leben verändern werden
© IBM Research
INDUSTRIAL TECHNOLOGY PAUL CHRISTIAN JEZEK 20.01.2017

Technologien, die unser Leben verändern werden

Künstliche Intelligenz, neue Sehhilfen & intelligente Sensoren, die Umweltverschmutzung in Echtzeit entdecken.

••• Von Paul Christian Jezek

 

Im Jahre 1609 entwickelte Galileo das Teleskop – und sah mit einem Mal unseren Kosmos mit anderen Augen. Mit neuartiger Software und Instrumenten wollen innovative Unternehmen diesem Beispiel folgen und das Unsichtbare unserer Welt vom Makro- bis zum Nanolevel sichtbar machen.

Die folgenden fünf Innovationen sollen in den nächsten fünf Jahren „das Unsichtbare sichtbar machen”:

KI und mentale Gesundheit

Einer von fünf Erwachsenen leidet unter neurologischen oder mentalen Beeinträchtigungen wie Huntington, Alzheimer, Parkinson, Depressionen oder Psychosen – aber nur etwa die Hälfte der Betroffenen ist in Behandlung. Die Kosten für die Therapien derartiger Erkrankungen übersteigen weltweit diejenigen für Diabetes, Atemerkrankungen und Krebs: Allein in den USA entstehen Kosten von mehr als einer Billion USD jährlich.

Viele Abläufe im Gehirn sind trotz der Erfolge in der Forschung nach wie vor ein Geheimnis. Ein Schlüssel für ein besseres Verständnis der komplexen Zusammenhänge ist die Sprache. In den nächsten fünf Jahren werden kognitive Systeme in der Lage sein, aus der Art und Weise, wie wir sprechen und formulieren, wichtige Rückschlüsse auf unsere mentale und physische Verfassung zu ziehen.
So kombinieren z.B Forscher Abschriften und Tonaufnahmen aus Patientengesprächen mit maschinellem Lernen, um Sprachmuster aufzudecken, die dabei helfen sollen, Psychosen, Schizophrenie, manisches Verhalten oder Depression präzise vorherzusagen. Momentan benötigt das kognitive System, das diese Daten verarbeitet, nur noch 300 Wörter, um eine entsprechende Vorhersage zu treffen.
In Zukunft hoffen die Forscher, dass ähnliche Techniken auch für posttraumatische Belastungsstörungen oder bei Autismus und Aufmerksamkeitsdefizit­störungen angewendet werden können. Dafür analysieren kognitive Systeme Sprache, Aussagen, Syntax und Intonation der Betroffenen. Kombiniert mit tragbaren Geräten und bildgebenden Verfahren wie der Elektroenzephalografie (EEG), einer Methode zur Messung der elektrischen Aktivität des Gehirns durch Aufzeichnung der Spannungsschwankungen an der Kopfoberfläche, entsteht ein umfassendes Bild der Person; es unterstützt so Psychologen und Mediziner bei der Diagnose und der zukünftigen ­Behandlungen.
Was früher unsichtbare Anzeichen waren, werden also in Zukunft erkennbare Indikatoren dafür werden, ob bei einem Patienten der Ausbruch der Krankheit oder die Verschlechterung seines Zustands unmittelbar bevorsteht, die Behandlung anschlägt oder angepasst werden muss. Werden zusätzlich mobile Geräte eingesetzt, können der Patient oder seine Angehörigen bereits zu Hause entsprechende Untersuchungen selbst machen und so die Arzttermine helfen vorzubereiten.

Komplexe Umweltmodelle

Die meisten Schadstoffe sind für unsere Augen unsichtbar – bis ihre Auswirkungen nicht mehr zu ignorieren sind. Methan z.B. ist eine Komponente von Erdgas, einer eigentlich sauberen Energiequelle. Wenn Methan allerdings in die Luft gelangt, bevor es verbrannt wird, trägt es neben Kohlendioxid entscheidend zur Erderwärmung bei.

Besonders viel Methan entsteht bei Verarbeitungsvorgängen in der Öl- und Gasindustrie.
In fünf Jahren werden neue, preiswerte Sensortechnologien verfügbar sein, die an den Gasquellen, Tanks und Pipelines angebracht werden und dafür sorgen, dass die Industrie bisher schwer zu findende Lecks in Echtzeit entdecken kann. Netzwerke aus Sensoren des Internets der Dinge werden in der Cloud miteinander verbunden sein und die weit verstreuten Quellen und die Förder-Infrastruktur überwachen, um innerhalb von Minuten – statt wie bisher nach Wochen – ein Leck zu entdecken. Sie helfen damit, Verschmutzungen und die Wahrscheinlichkeit von Katastrophen zu reduzieren.
IBM-Wissenschaftler arbeiten diesbezüglich bereits mit Gasunternehmen wie Southwestern Energy zusammen, um intelligente Methanüberwachungssysteme zu entwickeln. Die Forscher nutzen dazu Silicon Photonics – eine Technologie, bei der Daten zwischen Computerchips durch Licht übertragen werden. Der Vorteil: Licht kann in kürzerer Zeit weitaus mehr Daten übertragen als elektrische Leiter. Diese Chips können in Netzwerksensoren direkt vor Ort, an anderen Stellen der Überwachungskette oder auch in Drohnen integriert werden.
So kann aus Echtzeitdaten ein komplexes Umweltmodell entwickelt werden, das den Ursprung und die Menge der Schadstoffe in dem Moment bestimmt, in dem sie auftreten.

Makroskopische Weltmodelle

Die Zusammenhänge und die Komplexität unserer unmittelbaren Umgebung bleiben uns in den allermeisten Fällen verborgen. Mit dem Internet der Dinge und seiner bereits mehr als sechs Milliarden verbundenen Geräte wird sich das nachhaltig ändern: Kühlschränke und Glühbirnen, Drohnen, Kameras, Wetterstationen, Satelliten oder Teleskope liefern jeden Monat bereits Exabytes an zusätzlichen, bisher nur wenig genutzten Daten. Nach der Digitalisierung von Informationen, Transaktionen und sozialen Interaktionen ist es jetzt an der Zeit, die Abläufe der physischen Welt zu digitalisieren.

In den nächsten fünf Jahren werden Machine Learning-Algorithmen und Software dabei helfen, diese Informationen aus der physischen Welt zu organisieren und zu verstehen; man nennt diesen Ansatz Makroskopie.
Im Gegensatz zu einem Mikroskop oder einem Teleskop sind Systeme, die für diesen Ansatz entwickelt werden, darauf ausgerichtet, Wechselwirkungen von Dingen zu analysieren, die mit bloßem Auge erkennbar sind, aber nicht einfach in einen Zusammenhang gebracht werden können.

Am Beispiel Landwirtschaft

Durch das Sammeln, Organisieren und Analysieren von Daten zu Anbaumethoden, Bodenbeschaffen-heit, Grundwasserspiegel und Klima können Bauern zukünftig auf Basis entsprechender Daten ihr Saatgut auswählen, den richtigen Standort für Felder bestimmen und den Ertrag optimieren – ohne z.B. kostbare Grundwasserreserven unnötig auszubeuten. Bodenbeschaffenheit, Wetterdaten von Satelliten und andere ­Details werden ausgewertet, um die beste Bewässerung für optimale Ausbeute und Qualität für Böden sicherzustellen. In Zukunft werden Makroskopie-Ansätze überall eingesetzt werden – z.B. in der Astronomie, um dort anfallende Daten über Asteroiden auszuwerten, ihre Materialzusammensetzungen exakter zu ermitteln und Kollisionskurse vorherzusagen.

Besser sehen lernen

Das menschliche Auge kann mehr als 99,9% des elektromagnetischen Spektrums nicht sehen. In den letzten 100 Jahren hat die Wissenschaft jedoch entsprechende Geräte entwickelt, die mithilfe von Strahlen und ihrer Energie auf unterschiedlichen Wellenlängen Dinge sichtbar machen – Beispiele dafür sind das Radar oder Röntgenaufnahmen. Obwohl oft schon seit Jahrzehnten in Gebrauch, sind die Geräte nach wie vor nur von Spezialisten zu bedienen und teuer in Unterhalt und Anschaffung.

In fünf Jahren werden es uns entsprechende Sehhilfen in Kombination mit KI erlauben, größere Bandbreiten des elektromagnetischen Spektrums zu sehen, um wertvolle Einblicke in Dinge zu bekommen.
Noch wichtiger: Diese Hilfen werden tragbar, bezahlbar und überall verfügbar sein.

BEWERTEN SIE DIESEN ARTIKEL

TEILEN SIE DIESEN ARTIKEL