Website
Informatik/Technik

Forschung zur Künstlichen Intelligenz an der Sektion Informatik/Technik der Universität zu Lübeck

Künstliche Intelligenz ist eine Wissenschaft, die die Synthese und Analyse intelligenter Teilsysteme von Anwendungen untersucht (Teilsysteme werden in der Künstlichen Intelligenz Agenten genannt, siehe auch Russell und Norvig sowie Poole und Macworth). Agenten können bloße Softwaresysteme oder auch z.B. humanoide Roboter mit einer entsprechenden Hardware sein. Auch das Verhalten eines Menschen in einem Gesamtsystem kann aus technischer Sicht über einen Agenten abstrahiert werden. Das wesentliche Element der Künstlichen Intelligenz ist die Annahme einer Situiertheit von Agenten in einer Umgebung, so dass durch Wahrnehmung der Umgebung Agenten ein Modell über ihre Umgebung (und ggf. über andere Agenten in der Umgebung) aufbauen bzw. lernen können. Agenten handeln rational, indem sie aufgrund ihres jeweiligen (ggf. anzupassenden) Ziels aus ihrer lokalen Sicht heraus optimale Handlungen berechnen, die bei Ausführung einen Einfluss auf die Umgebung haben, deren Zustand dann wieder vom Agenten erfasst werden muss, so dass er weiterhin optimal handeln kann (Interaktion mit der Umgebung). Die Erfassung der Umgebung kann auch eine Rückkopplung bzgl. der Wahl von früheren Handlungen umfassen und den Agenten zur Neufassung seines internen Zustandes und seiner zukünftigen Handlungsplanung veranlassen (Reinforcement). Die sog. Sequentielle Entscheidungstheorie löst das Problem der Bestimmung der besten Aktion, geht aber davon aus, dass sowohl die Verteilung von Ereignissen in der Umgebung bekannt ist als auch die möglichen Aktionen a priori bekannt sind, was in der Regel in Realweltsystemen eine nicht geeignete Annahme ist. Ein Agent muss die Verteilung(en) zur Beschreibung der Umgebung erst im Laufe der Zeit schätzen, und er muss auch mögliche neue Handlungen (Aktionen) entdecken. Bei der Handlungsplanung ist jeder Agent in seiner Rationalität den Gesetzen der Komplexitätstheorie unterworfen, d.h. die Rationalität von Agenten ist nicht nur unter starken Zeitbeschränkungen recht stark begrenzt. Optimale Handlungen können nicht unbedingt mit den zur Verfügung stehenden Berechnungsressourcen (Zeit und Speicher) bestimmt werden. Da optimale Handlungen nur approximiert berechnet werden können, werden die theoretisch erreichbaren Ziele eines Agenten praktisch auch nicht immer oder nur verspätet erreicht.

Die beschriebene Form der Konstruktion von Systemen mit situierten Agenten, die in einer Umgebung aus ihrer lokalen Sicht optimal agieren, also rational handeln, bildet die Basis für einen künstlichen, technischen Intelligenzbegriff. Ein Agent ist intelligent, wenn er unter Berücksichtigung der begrenzten Rationalität durch situierte Interaktion mit seiner Umgebung seine Ziele in unerwartet kurzer Zeit erreicht. Manche fordern sogar, dass Ziele in wechselnden Kontexten (oder Umgebungen) erreicht werden, und zwar auf der Basis von abstrakten Beschreibungen der "Regeln" (z.B. Regeln eines Spiels, wie z.B. Schach), die eine Umgebung einem Agenten bereitstellt (Artificial General Intelligence). Für Spiele wie Go, Schach oder Shigo wurde gezeigt, dass durch Reinforcement-Lernen ein System aus einer Beschreibung der Spielregeln generiert werden kann, das menschliche Spieler ohne Probleme schlagen kann. Es ist hervorzuheben, dass es sich bei den genannten Spielen um Spezialprobleme handelt. Das generierte System wird gegen Menschen zwar fast immer gewinnen, kann aber nicht einem Anfänger erklären, wie man ein guter Spieler wird. Sehr generell ist diese Art der Intelligenz nicht. Aus den speziellen gelösten Aufgaben lassen sich aber durchaus sehr generelle Techniken für die Analyse und Synthese von intelligenten Systemen herleiten.

Ohne Berücksichtigung der Situiertheit ist der Begriff der Intelligenz in jedem Fall schlecht definiert. Es ist auch wichtig zu verstehen, dass sich die Intelligenz von Agenten nur "von außen" zeigt. Soll heißen: Die Intelligenz des Agenten, die wir Menschen in das Verhalten von Agenten als Software- oder Hardwaresysteme hineininterpretieren, wird durchaus mit klassischen Techniken der Informatik erbracht. Eine Repräsentations- oder Berechnungsmethode als KI-Methode zu klassifizieren, führt nicht zu tiefen Einsichten. Von "intelligenten Algorithmen" oder "intelligenten Daten" oder gar der "Integration einer KI in ein System" bzw. "Erzeugung einer KI" kann keine Rede sein.

Die angesprochenen Ziele eines Agenten können unsicher sein, spiegeln aber die den Agenten übertragenen Aufgaben wider. Die Analyse eines Systems von Agenten (also eines sog. Mechanismus) und die Prüfung, ob eine gewünschte Funktionalität durch ein solches System von Agenten auch wirklich realisiert wird, stellt eine zentrale Fragestellung in der Wissenschaft der Künstlichen Intelligenz dar. Ohne eine Lösung dieser Frage der formalen Korrektheit eines Mechanismus im konkreten Fall sind intelligente Systeme in bestimmen Anwendungsbereichen schlichtweg nicht einsetzbar.

Wir betonen, dass die Zubilligung der Intelligenz von der Erwartungshaltung des Menschen abhängt, der das Verhalten maschineller Agenten interpretiert. Wenn z.B. ein Schachagent (oder Schachprogramm) das Ziel hat, 1000 Spiele zu gewinnen, und man nicht erwartet, dass er dieses Ziel schon nach 1000 Partien erreicht, mag man ein Schachprogramm als intelligent bezeichnen. Bei einem Taschenrechner würde man erwarten, dass er 1000 von 1000 Additionen richtig berechnet, und daher wird das Taschenrechnerprogramm auch kaum als intelligent bezeichnet. Wenn man erwartet, dass ein Schachprogramm immer gewinnt, wird die Tendenz, es als intelligent zu bezeichnen, stark abnehmen. Die Erwartungshaltung kann sich durchaus auch mit der Zeit ändern. Wenn man den Intelligenzbegriff in diesem Rahmen ernst nimmt, kann man auch verschiedene Formen der Intelligenz unterscheiden und stößt dabei zu einem weiteren Kernthema der Künstlichen Intelligenz vor, das ohne den Agenten-Begriff verborgen geblieben wäre.

Wichtig ist es auch zu verstehen, dass in der Künstlichen Intelligenz der Begriff Lernen sich darauf bezieht, dass ein Agent zur Laufzeit ein Modell seiner Umgebung aufbaut, also selbstlernende Algorithmen verwendet, um seine Ziele besser zu erreichen. Der Einsatz von Lerntechniken zur Entwicklungszeit von Agenten zur Generierung eines initialen Modells bzw. Verhaltens ist möglich, trifft aber nicht den Kern der Künstlichen Intelligenz, sondern kann als Data Science zur Systementwicklung verstanden werden. Lernen unter Verwendung von Vorwissen ist wesentlich zur Reduktion der notwendigen Trainingsdaten, denn für die allermeisten Lernprobleme können insbesondere zur Laufzeit kaum ausreichend Trainingsdaten bereitgestellt werden - eine Tatsache, die heute kaum beachtet wird. Mit Vorwissen wird es möglich, den Hypothesenraum für mögliche Lernergebnisse automatisch zu strukturieren, was eine notwendige Voraussetzung für effektives Handeln eines Agenten darstellt.

Ein weitverbreiteter Irrtum ist es anzunehmen, dass in der KI das Lernen (zur Laufzeit) nur in Bezug auf die verwendeten Modelle relevant ist (z.B. für Funktionalitäten wie die Klassifikation von Bildern, Erkennung von Objekten, usw.). Genauso wichtig ist es, dass Agenten ihre Eingabedaten (Perzepte) analysieren, um bestimmte Strategien zu entwickeln, mit den sehr begrenzten Zeit- und Platzressourcen für die Bestimmung der jeweils besten nächsten Aktion effizient umzugehen. Nehmen wir an, ein Agent löst hierzu verschiedene Probleme, deren Klasse sich über die Historie der Eingaben definiert. Mit Techniken wie AutoML oder Automatic Algorithm Configuration lassen sich (z.B. für SAT-Probleme) nach kurzer Trainingsphase sehr effiziente Strategien zur Bearbeitung von Eingaben automatisch generieren bzw. lernen. Es gibt Einsatzszenarien, in den Agenten zunächst einfache Instanzen einer Problemklasse bearbeiten, um geeignete Strategien für die Lösung von Problemen aus der jeweiligen Problemklasse zu identifizieren. Erst danach können harte Instanzen einer Problemklasse angegangen werden. Ohne "Anlernen" durch einfache Probleminstanzen könnten harte Instanzen vielleicht bei gegebenen Zeitressourcen gar nicht bearbeitet werden, ohne auf ein Timeout zu laufen. Strategielernen kann wesentlich bedeutsamer in praktischen Anwendungen sein als Funktionalitätslernen.

Man beachte, dass technische Agenten, die durch Interaktion in einer speziellen Umgebung eine große Performanz erzielt haben, kopierbar sind (im Gegensatz zu Menschen) und in einer anderen, ähnlichen Umgebung weiter lernen können und noch besser werden. Die Kompetenzerhöhung von Agenten mittels Lernen durch Interaktion mit einer Umgebung ist durchaus ein sehr interessantes Prinzip der Systemerstellung. Ob ein durch Lerntechniken erstelltes System in einer bestimmten Umgebung ohne Weiterlernen betrieben werden kann, lässt sich nicht allgemein beantworten. Die Realität entwickelt sich allerdings weiter und ohne laufende Anpassung ist die Verwendbarkeit von durch Lerntechniken gewonnenen Systemen sicherlich begrenzt.

Ängste in der Bevölkerung vor den Ergebnissen der Wissenschaft der Künstlichen Intelligenz könnten sich aus einer Überschätzung der Leistungsfähigkeit der oben genannten Form des Kettenbrief-artigen Aufschaukelns der Intelligenz von Agenten durchaus ergeben, insbesondere wenn man die immanente Begrenztheit der Rationalität von Agenten in Betracht zieht. Der Punkt, an dem Systeme entstehen, die intelligenter sind als Menschen (wie auch immer das gemessen werden soll), wird manchmal als Singularität bezeichnet. Ein Aufschaukeln von Intelligenz, insbesondere auch durch automatische Kombination von selbstlernenden Teilsystemen, ist heute keine Realität, gerade auch weil die Rationalität von Agenten aus prinzipiellen Überlegungen heraus begrenzt sein muss. Das spontane Verwenden eines neu eingetragenen Kontaktes in einem Sprachassistenten, also eine Funktionalität, die wir heute schon vorfinden, ist aus dieser Perspektive wenig beeindruckend. Die korrekte Aussprache von neuen Namen ist aufgrund von großen Mengen an Sprachdaten heutzutage auch kein Hexenwerk.

Es ist allerdings deutlich zu machen, dass massenhafte Einflussnahme auf Menschen durch intelligente Agenten heute schon Realität ist und ohne Gegenmaßnahmen immer subtiler wird und auch noch deutlich zunehmen wird, so dass Demokratien in Gefahr geraten können. Man darf auch Intelligenz nicht mit Menschen-kompatiblem Verhalten verwechseln, denn das (unerwartet) schnelle Erreichen von Zielen heißt nicht, dass für Menschen sinnvolle Ziele auch in aus Menschensicht "vernünftiger" Weise durch einen Agenten eigenständig aufgesetzt werden. Sollte die menschliche Kontrolle über das Aufsetzen von Zielen in automatischen Systemen verloren gehen, ist wenig Gutes zu befürchten. Die Wissenschaft der Künstlichen Intelligenz muss ihre Forschung darauf konzentrieren, nicht nur die Erstellung von in einem gewissen Sinne korrekten aber unkontrollierbaren Systemen zu ermöglichen, sondern beweisbar Menschen-kompatible Systeme zu erzeugen (siehe Russell 2019). Es wird berechtigt argumentiert, dass Agenten die Ziele bzw. Präferenzen von Menschen bzw. der Menschheit berücksichtigen müssen (und nicht ihre eigenen), damit für beteiligte Menschen beweisbar ein positiver Nutzen erzielt werden kann. Agenten sind zunächst unsicher über die Präferenzen von Menschen und reduzieren diese Unsicherheit durch situierte Interaktion. Eine permanente Unsicherheit über die Präferenzen von Menschen sollte ein Agent beibehalten, um frühere Fehler zu antizipieren und Anpassungen an wechselnde menschliche Präferenzen zu ermöglichen (Human-Compatible AI). Geisteswissenschaftliche Forschung spielt also eine bedeutende Rolle für die Künstliche Intelligenz.

Statt z.B. Ethik nur so zu begreifen, dass man Konstrukteuren von Systemen natürlichsprachlich formulierte moralische Leitsätze vorgibt (vgl. die Asimovschen Leitsätze der Robotik), bietet die KI die Möglichkeit, mit formaler Ethik intelligente Agenten in die Lage zu versetzen, über Modelle des moralischen Handelns die Präferenzen von Menschen mit weniger Aufwand zu schätzen und gegeneinander abzuwägen, was einen enormen Gewinn bezüglich zu kurz greifender ethischer Ansätze nur für die Konstruktion von Systemen darstellt und wichtige Perspektiven eröffnet (vgl. Begriffe wie z.B. Value Alignment, siehe Russell 2019). Nicht nur die Konstrukteure von KI-Systemen müssen nach ethischen Leitlinien handeln, sondern die konstruierten Systeme (Agenten) selbst. Letzteres wird nur gelingen, wenn bei der Entwicklung des Mechanismus eines Systems (Umgebung und Zusammenspiel der Agenten) berücksichtigt wird, dass das Handeln nach ethischen Leitlinien eine gewinnbringende Strategie für jeden einzelnen Agenten darstellt (Trustworthy AI)! Einen solchen Mechanismus zu gestalten, ist nicht einfach. Die Grundlagen hierfür untersucht das Forschungsgebiet Algorithmic Mechanism Design. Der Ansatz, bei der Konstruktion von Systemen Ethikleitlinen zu befolgen, ist nicht falsch, wird aber den Notwendigkeiten, die sich aus dem Potential der KI ergeben, nicht vollumfänglich gerecht. Es muss erreicht werden, dass rationales Handeln von Agenten bestimmten Ethikleitlinien genügt. Andere Aspekte von Trustworthy AI betreffen die Privatheit: Z.B. sollte vermieden werden, dass ermittelt werden kann, ob ein bestimmtes Datum (oder die Daten einer bestimmten Person) Bestandteil der Trainingsdaten oder zumindest Basis für die Beantwortung einer Anfrage war oder nicht. Techniken wie z.B. Differential Privacy sind für Agentensysteme hochrelevant und sind mit dem Ethikkonzept technisch zu kombinieren.

Die wesentlichen Methoden und Techniken der Informatik aber auch der Geisteswissenschaften weiterzuentwickeln, die für den Aufbau und die Analyse beweisbar Menschen-kompatibler intelligenter Agenten notwendig sind, ist Gegenstand der Forschung in der Wissenschaft der Künstlichen Intelligenz. Für die Realisierung von Teilaspekten von Agenten werden Programmiertechniken unter Verwendung von Machine Learning wie z.B.  Differential Programming, ein Nachfolger von Deep Learning, (z.B. zur Auswertung von Sensordaten) und Probabilistic Programming (z.B. für die Entscheidungsfindung) eingesetzt, wobei es bei den Techniken durchaus Überlappungen gibt (z.B. im Bereich der Variational Autoencoder Techniken). Probabilistisch-relationale Grundlagen der Modellierung von Realweltsystemen und Techniken der Datenanalyse (Data Science, Data Mining) und der optimierenden Entscheidungsfindung auf Basis großer Datenmengen (ggf. mit Web-Skalierung) sind ebenso grundlegend für die Systemerstellung in der Künstlichen Intelligenz. Neue Ansätze zum Umgang mit unvollständigen Daten, wie z.B. prädiktives Lernen (auch: imputative learning) sollen u.a. Probleme der Akquise von Wissen über allgemeine Lebensbereiche (Common Sense) lösen. Ergebnisse hierzu können später auch in Anwendungen einfließen (z.B. vertieftes Sprachverstehen).

[Verantwortlich für den Text: Prof. Dr. Ralf Möller]

Im Master-Studiengang Informatik bieten wir für interessierte Studierende hierzu eine Vertiefung Data Science und KI, für die die Vertiefung Web und Data Science im Bachelor-Programm einen ideale Basis bietet. Für technisch interessierte Studierende bieten wir den Studiengang Robotik und Autonome Systeme. Im KI-Kolloquium werden verschiedene Forschungsarbeiten vorgestellt.

 

Anwendungen, Agenten, Repräsentationssprachen, Modelle, Daten, Algorithmen

Probleme des Alltags, die für Computer schwierig zu lösen sind, können vielfach von Menschen leicht gelöst werden (Klassifikation von multimodalen Inhalten, Gestaltung einer bilateralen multimodalen Kommunikation, Ad-hoc-Planung, um nur einige zu nennen). Die menschlichen Lösungen sind dabei allerdings (auf lange Sicht) meist fehlerbehaftet und approximativ. Schwierige Probleme mit großen Datenmengen und/oder hoher Kombinatorik sind dagegen von Menschen kaum einfach zu lösen (kollektive Klassifikation in großen relationalen Strukturen (Big Data), sichere Kommunikation mit vielen Teilnehmern, extreme Kurzzeit- oder auch rationale Langzeitplanung, usw.). 

Die Wissenschaft der Künstlichen Intelligenz ermöglicht es menschlichen Entwicklern, mit vertretbarem Aufwand leistungsfähige situierte Agenten zu erstellen, die Probleme im Verbund effizient lösen können, die sowohl für Computer als auch für Menschen schwierig sind. In den verschiedenen Anwendungsfeldern (z.B. in der Medizin, der Robotik oder auch der öffentlichen Verwaltung) müssen mit Unsicherheiten behaftete große Datenmengen sinnvoll automatisch disambiguiert und weiterverarbeitet werden. Hierzu sind Systeme nötig, die unsichere zeit- und raumbezogene Daten sowie multimodale Daten effizient verarbeiten können, so dass neben großen relationalen Datenbanken z.B. auch umfangreiche und verteilt vorliegende sprachliche oder bildliche Datenströme (z.T. in Echtzeit) in angemessener Weise interpretiert werden können.

Die KI-Systementwicklung baut auf der Repräsentation von übergreifendem Wissen aus verschiedenen Anwendungsfeldern in Form von stochastischen Modellen auf, basiert ggf. auf Techniken des maschinellen Lernens bzw. Data Minings zum Aufbau, zur Übertragung oder zur Weiterentwicklung der Modelle und endet mit der notwendigen automatischen Verifikation oder Weiterentwicklung von Systemen für sich ändernde Realweltbedingungen im Einsatz. Eventuell müssen auch bei dieser Vorgehensweise Approximationslösungen akzeptiert und, dem formalen Begriff der begrenzten Rationalität folgend, in ihrer Tragweite im Kontext von verteilten KI-Systemen (z.B. Intelligente Software-Agenten) bei der Bewertung der Qualität eines Systems verstanden werden.

Neben einer formalen Systemerstellung und Qualitätsprüfung spielt bei der Problemlösung auch die menschliche Interaktion eine Rolle. Berechnungsergebnisse und Reaktionen der mit Hilfe von Modellen und Daten erstellten Systeme müssen von Menschen in einem Systemkontext sinnvoll weiterverwendet werden können und sollen im Sinne einer Nachvollziehbarkeit und eines "Weiterdenkens" in die Interaktion zwischen Menschen in virtuellen und in Realweltsystemen flüssig integriert werden können. Um diesen Ansprüchen gerecht zu werden, übernimmt die Künstliche Intelligenz Techniken aus vielen anderen Wissenschaften, sofern sie für die obige Vision nützlich sind. 

 

Forschung in den Instituten

  • Das Institut für Informationssysteme (Leitung: Prof. Dr. Ralf Möller) arbeitet an den stochastisch-relationalen Grundlagen der Modellierung in der KI und an der automatischen Gewinnung von probabilistischen relationalen Modellen aus Daten (Data- und Text-Mining, Stochastic Relational Maschine Learning, Web und Data Science) sowie an effizienten Anfragebeantwortungs- und Schlussfolgerungsverfahren bezogen auf komplexe Modelle (Wissensbasen), große Datenmengen und ausdrucksstarken Ontologie-Beschreibungssprachen. IFIS bietet eine breite Palette an Lehrveranstaltungen in den Bereichen KI und Data Science und stellt regelmäßig die Ergebnisse seiner Forschungsarbeiten auf deutschen und internationalen KI-Konferenzen und Zeitschriften vor.

    Marcel Gehrke, Tanya Braun, Ralf Möller: Lifted Temporal Most Probable Explanation. In: Proc. of the International Conference on Conceptual Structures, 2019.

    Özgür L. Özçep, Felix Kuhr, Ralf Möller: Influence-Based Independence. In: Proc. 32nd Int. Florida Artificial Intelligence Research Society Conference (FLAIRS-19), 2019.

    F. Kuhr, R. Möller: Constructing and Maintaining Corpus-Driven Annotations. In: 2019 IEEE 13th International Conference on Semantic Computing (ICSC), p.462-467, 2019.

    Tanya Braun, Ralf Möller: Fusing First-order Knowledge Compilation and the Lifted Junction Tree Algorithm. In: 8th International Workshop on Statistical Relational AI at the 27th International Joint Conference on Artificial Intelligence, 2018.

    Tanya Braun, Ralf Möller: Parameterised Queries and Lifted Query Answering. In: IJCAI-18 Proceedings of the 27th International Joint Conference on Artificial Intelligence, p.4980-4986, 2018.

    Alexander Motzek, Ralf Möller: Indirect Causes in Dynamic Bayesian Networks Revisited. In: Journal of Artificial Intelligence Research (JAIR), Vol.59, p.1-58, 2017.

 

  • Das Institut für IT Sicherheit (Leitung: Prof. Dr. Thomas Eisenbarth) erforscht und verwendet Methoden des maschinellen Lernens zur Sicherheitsanalyse und Evaluation von Sicherheitsanwendungen. Darüber hinaus beschäftigt sich das Institut neuerdings mit der Manipulierbarkeit dieser Algorithmen, dem Adversarial Machine Learning, sowie dessen Verhinderung und Auswirkungen in sicherheitskritischen Anwendungen. Komplementär arbeitet das Institut ebenfalls daran, Lernverfahren so anzupassen, dass Daten einzelner Personen geschützt bleiben.

 

  • Das Institut für Mathematik (Leitung: Prof. Dr. Jürgen Prestin) arbeitet unter anderem in den Bereichen Wavelet- und Zeit-Frequenz-Analysis, symbolische Dynamik sowie Modellierung, Parameterschätzung und Simulation mit Anwendung auf komplexe Daten in den Bereichen Medizin und Finance. Im Fokus stehen insbesondere die gezielte Extraktion von Information aus Daten und die Gewinnung geeigneter Features für die Detektion und Klassifikation von Systemzuständen.

 

  • Das Institut für mathematische Methoden der Bildverarbeitung (Leitung: Prof. Dr. Jan Modersitzki) erforscht Methoden der KI in den Bereichen medizinischer Bildverarbeitung und Optimierung. In der Bildverarbeitung stehen dabei KI-Methoden zur Klassifikation, Mustererkennung und Wissensgenerierung klinischer Daten im Vordergrund, in der Optimierung KI-basierte Ansätze zur Beschleunigung und Robustheit von Verfahren. Zudem ist das Institut das Brückeninstitut zum Fraunhofer-Institut für Digitale Medizin MEVIS. MEVIS erforscht und entwickelt Verfahren der KI umfänglich u.a. in den Bereichen Entscheidungsunterstützung, klinische Workflow-Unterstützung, Infrastruktur für KI-Software, Translation KI-basierter Systeme.

 

  • Das Institut für Medizinische Elektrotechnik (Leitung: Prof. Dr. Philipp Rostalski) forscht und lehrt an Methoden der statistischen Lerntheorie mit Anwendungen in der (Bio-) Signalverarbeitung, der Parameterschätzung sowie der Regelung von sicherheitskritischen, autonomen Systemen. Methodischer Schwerpunkt liegt auf bayesschen Algorithmen basierend auf probabilistischen graphischen Modellen sowie Gauß-Prozessmodellen und der darauf basierenden Anwendung von Optimierungsverfahren. In verschiedenen Industrieprojekten, sowie in zahlreichen Veröffentlichungen und Patenten kommt die Praxisrelevanz dieser Forschung zum Ausdruck.

 

  • Das Institut für Medizinische Informatik (Leitung: Prof. Dr. Heinz Handels) arbeitet seit Jahren in dem Bereich der KI-basierten medizinischen Bild- und Signalverarbeitung und entwickelt diagnose- und therapieunterstützende Methoden und Systeme unter Verwendung neuester maschineller Lernverfahren (Neuronale Netze, Deep Learning  etc.). Diese Themen werden in verschiedenen drittmittelgeförderten Forschungsprojekten und Industriekooperationen bearbeitet.

 

  • Am Institut für Multimediale und Interaktive Systeme (Leitung: Prof. Dr. Michael Herczeg) wird seit Jahren im Bereich der symbolischen KI geforscht. Das zentrale Thema dabei ist „Explainable AI“, d.h. die Fähigkeit von KI-Systemen Nutzern ihre Schlussfolgerungen verständlich zu erklären und dadurch ein hohes Maß an Transparenz und Vertrauen vor allem in sicherheitskritischen komplexen Domänen wie Medizin oder Mobilität  aber auch in alltäglichen datenreichen Smart Environments wie Ambient Assisted Living, Smart Buildings oder Smart Cities zu gewährleisten.

 

  • Das Institut für Neuro- und Bioinformatik (Leitung: Prof. Dr. Thomas Martinetz) forscht und lehrt seit Jahren auf dem Gebiet des maschinellen Lernens und der Neuronalen Netze (Deep Learning) in den Bereichen der Bildverarbeitung und der Mustererkennung mit Anwendungen in Medizin, Biologie und Industrie. Neben langjährigen Industriekooperationen gingen mehrere erfolgreiche Start-Ups im Bereich der KI aus dem Institut hervor.

    Madany Mamlouk, Amir and Haker, Martin and Martinetz, Thomas: Perception Space Analysis: From color vision to odor perception. International Joint Conference on Neural Networks (IJCNN), pp. 689-696, 2017 

    Boris Knyazew and Erhardt Barth and Thomas Martinetz: Recursive autoconvolution for unsupervised learning of convolutional neural networks. 2017 International Joint Conference on Neural Networks (IJCNN), pp. 2486-2493, 2017 

    Stanislau Semeniuta and Aliaksei Severyn and Erhardt Barth: A Hybrid Convolutional Variational Autoencoder for Text Generation. in EMNLP, pp. 627-637, Association for Computational Linguistics, 2017 

    Stanislau Semeniuta and Aliaksei Severyn and Erhardt Barth: Recurrent Dropout without Memory Loss. in COLING, pp. 1757-1766, ACL, 2016 

    Lars Hertel and Erhardt Barth and Thomas Käster and Thomas Martinetz: Deep Convolutional Neural Networks as Generic Feature Extractors. in Proc. 2015 IEEE International Joint Conference on Neural Networks (IJCNN), Killarney, Ireland, 2015 

    Schütze, Henry and Barth, Erhardt and Martinetz, Thomas: Learning Orthogonal Sparse Representations by Using Geodesic Flow Optimization. in IJCNN 2015 Conference Proceedings, pp. 15540:1-8, 2015 

 

  • Das Institut für Robotik und Kognitive Systeme (Leitung: Prof. Dr. Achim Schweikard) forscht und lehrt seit Gründung (2002) an den Themen Robotik und Künstliche Intelligenz in Industrie und Medizin. Zahlreiche Technologien in den Bereichen Radiochirurgie, Orthopädische Chirurgie und Neurochirurgie wurden von uns entwickelt und in Zusammenarbeit mit Firmen in den vollen weltweiten klinischen Routineeinsatz gebracht.

     

    Daniel Tanneberg, Jan Peters and Elmar Rueckert, Intrinsic Motivation and Mental Replay enable Efficient Online Adaptation in Stochastic Recurrent Networks (2019), in: Neural Networks - Elsevier, 109(67-80)

    Nils Rottmann, Ralf Bruder, Achim Schweikard and Elmar Rueckert, Loop Closure Detection in Closed Environments, European Conference on Mobile Robots (ECMR 2019), 2019 

    Adrian Sosic, Elmar Rueckert, Jan Peters and Abdelhak M Zoubir, Inverse Reinforcement Learning via Nonparametric Spatio-Temporal Subgoal Modeling (2018), in: Journal of Machine Learning Research (JMLR)

    Elmar Rueckert, Learning to Categorize Bug Reports with LSTM Networks, in: Proceedings of the International Conference on Advances in System Testing and Validation Lifecycle (VALID), Nice, France, pages 6, XPS (Xpert Publishing Services), 2018

 

  • Das Institut für Signalverarbeitung (Leitung: Prof. Dr. Alfred Mertins) forscht und lehrt seit vielen Jahren auf dem Gebiet der Signal- und Datenverarbeitung mittels Maschinellen Lernens. Insbesondere Deep-Learning-Methoden finden dabei Anwendung in der Biosignalanalyse, der akustischen Ereigniserkennung und der Bildrekonstruktion aus gestörten Messungen.

    Koch, P., Brügge, N., Phan, H., Maass, M. and Mertins, A.: Forked Recurrent Neural Network for Hand Gesture Classification Using Inertial Measurement Data in Proc. 44 th IEEE Intl. Conf. on Acoustics, Speech and Signal Processing (ICASSP 2019), Brighton, UK, May, 2019 

    Phan, H., Chen, O. Y., Koch, P., Pham, L., McLoughlin, I., Mertins, A. and De Vos, M.: Unifying Isolated and Overlapping Audio Event Detection with Multi-Label Multi-Task Convolutional Recurrent Neural Networks in Proc. 44 th IEEE Intl. Conf. on Acoustics, Speech and Signal Processing (ICASSP 2019), Brighton, UK, May, 2019 

    Huy Phan and Lars Hertel and Marco Maass and Philipp Koch and Radoslaw Mazur and Alfred Mertins: Improved Audio Scene Classification Based on Label-Tree Embeddings and Convolutional Neural Networks. IEEE/ACM Trans. Audio, Speech, and Language Processing (TASLP), no. 25, pp. 1278-1290, 06, 2017 

    Lars Hertel and Huy Phan and Alfred Mertins: Comparing Time and Frequency Domain for Audio Event Recognition Using Deep Learning. in Proc. 2016 IEEE International Joint Conference on Neural Networks (IJCNN), Vancouver, Canada, 2016


  • Das Institut für Softwaretechnik und Programmiersprachen (Leitung: Prof. Dr. Martin Leucker) arbeitet an Engineering-Fragestellungen für intelligente Systeme, insbesondere im Bereich der Medizintechnik und der Logistik. Hierzu werden Lernverfahren von Automaten erarbeitet, die sich zur Beschreibung des Verhaltens dieser Systeme besonders eignen und die Basis von Sicherheitsanalysen darstellen.

 

 

  • Das Institut für Telematik (Leitung: Prof. Dr. Stefan Fischer) arbeitet an Fragestellungen zu den Themen Internet der Dinge, Cyber-Physical Systems und Nanorobotik und -kommunkation. Dabei stehen zurzeit Selbstorganisation von intelligenten IoT-Verbünden wie bspw. die automatisierte Bildung von Ensembles im Ambient Computing mit Hilfe lernender KI-Methoden und die Organisation von In-Body Nano-Netzwerken im Vordergrund.