Website
Informatik/Technik

Forschung zur Künstlichen Intelligenz an der Sektion Informatik/Technik der Universität zu Lübeck

Künstliche Intelligenz ist eine Wissenschaft, die die Synthese und Analyse intelligenter Teilsysteme von Anwendungen untersucht (Teilsysteme werden in der Künstlichen Intelligenz Agenten genannt, siehe auch Russell und Norvig sowie Poole und Macworth). Agenten können bloße Softwaresysteme oder auch z.B. humanoide Roboter mit einer entsprechenden Hardware sein. Auch das Verhalten eines Menschen in einem Gesamtsystem kann aus technischer Sicht über einen Agenten abstrahiert werden. Das wesentliche Element der Künstlichen Intelligenz ist die Annahme einer Situiertheit von Agenten in einer Umgebung, so dass durch Wahrnehmung der Umgebung Agenten ein Modell über ihre Umgebung (und über andere Agenten in der Umgebung) aufbauen bzw. lernen können. Agenten handeln rational, indem sie aufgrund ihres jeweiligen (ggf. anzupassenden) Ziels aus ihrer lokalen Sicht heraus optimale Handlungen berechnen, die bei Ausführung einen Einfluss auf die Umgebung haben, deren Zustand dann wieder vom Agenten erfasst werden muss, um weiterhin optimal handeln zu können (Interaktion mit der Umgebung). Die Erfassung der Umgebung kann auch eine Rückkopplung bzgl. der Wahl von früheren Handlungen umfassen und den Agenten zur Neufassung seines internen Zustandes und seiner zukünftigen Handlungsplanung veranlassen (Reinforcement). Bei der Handlungsplanung ist jeder Agent in seiner Rationalität den Gesetzen der Komplexitätstheorie unterworfen, d.h. die Rationalität von Agenten ist nicht nur unter starken Zeitbeschränkungen begrenzt. Die angesprochenen Ziele eines Agenten können unsicher sein, spiegeln aber die den Agenten übertragenen Aufgaben wider. Die Analyse eines Systems von Agenten (also eines sog. Mechanismus) und die Prüfung, ob eine gewünschte Funktionalität durch ein solches System von Agenten auch wirklich realisiert wird, stellt ebenfalls eine zentrale Fragestellung in der Wissenschaft der Künstlichen Intelligenz dar.

Die beschriebene Form der Konstruktion von Systemen mit situierten Agenten, die in einer Umgebung aus ihrer lokalen Sicht optimal agieren, also rational handeln, bildet die Basis für einen künstlichen, technischen Intelligenzbegriff. Ein Agent ist intelligent, wenn er unter Berücksichtigung der begrenzten Rationalität durch situierte Interaktion mit seiner Umgebung seine Ziele in unerwartet kurzer Zeit erreicht. Ohne Berücksichtigung der Situiertheit ist der Begriff der Intelligenz schlecht definiert. Es ist auch wichtig zu verstehen, dass sich die Intelligenz von Agenten nur "von außen" zeigt. Soll heißen: Die Intelligenz des Agenten, die wir Menschen in das Verhalten von Agenten als Software- oder Hardwaresysteme hineininterpretieren, wird durchaus mit klassischen Techniken der Informatik erbracht. Eine Repräsentations- oder Berechnungsmethode als KI-Methode zu klassifizieren, führt nicht zu tiefen Einsichten. Von "intelligenten Algorithmen" oder "intelligenten Daten" oder gar der "Integration einer KI in ein System" kann keine Rede sein.

Wir betonen, dass die Zubilligung der Intelligenz von der Erwartungshaltung des Menschen abhängt, der das Verhalten maschineller Agenten interpretiert. Wenn z.B. ein Schachagent (oder Schachprogramm) das Ziel hat, 1000 Spiele zu gewinnen, und man nicht erwartet, dass er dieses Ziel schon nach 1000 Partien erreicht, mag man ein Schachprogramm als intelligent bezeichnen. Bei einem Taschenrechner würde man erwarten, dass er 1000 von 1000 Additionen richtig berechnet, und daher wird das Taschenrechnerprogramm auch kaum als intelligent bezeichnet. Wenn man erwartet, dass ein Schachprogramm immer gewinnt, wird die Tendenz, es als intelligent zu bezeichnen, stark abnehmen. Wenn man den Intelligenzbegriff in diesem Rahmen ernst nimmt, kann man auch verschiedene Formen der Intelligenz unterscheiden und stößt dabei zu einem weiteren Kernthema der Künstlichen Intelligenz vor, das ohne den Agenten-Begriff verborgen geblieben wäre.

Wichtig ist es auch zu verstehen, dass in der Künstlichen Intelligenz Lernen sich darauf bezieht, dass ein Agent zur Laufzeit ein Modell seiner Umgebung aufbaut (also lernt), um seine Ziele besser zu erreichen. Der Einsatz von Lerntechniken zur Entwicklungszeit von Agenten zur Generierung eines initialen Modells bzw. Verhaltens ist möglich, trifft aber nicht den Kern der Künstlichen Intelligenz, sondern kann als Data Science zur Systementwicklung verstanden werden. Man beachte aber, dass technische Agenten, die durch Interaktion in einer speziellen Umgebung eine große Performanz erzielt haben, kopierbar sind (im Gegensatz zu Menschen) und in einer anderen, ähnlichen Umgebung gewinnbringend eingesetzt werden können, wodurch sie dann weiter lernen und noch besser werden. Die Kompetenzerhöhung von Agenten mittels Lernen durch Interaktion mit einer Umgebung ist durchaus ein sehr interessantes Prinzip der Systemerstellung. Ängste vor KI in der Bevölkerung könnten sich aus einer Überschätzung der Leistungsfähigkeit dieser Form des Kettenbrief-artigen Aufschaukelns der Kompetenz von Agenten durchaus ergeben, insbesondere wenn man die immanente Begrenztheit der Rationalität von Agenten in Betracht zieht. Das spontane Verwenden eines neu eingetragenen Kontaktes in einem Sprachassistenten, also eine Funktionalität, die wir heute schon vorfinden, ist aus dieser Perspektive aber wenig beeindruckend. Die korrekte Aussprache von neuen Namen ist aufgrund von großen Mengen an Sprachdaten heutzutage auch kein Hexenwerk.

Die wesentlichen Methoden und Techniken der Informatik weiterzuentwickeln, die für den Aufbau und die Analyse intelligenter Agenten und auch Systemen von Agenten notwendig sind, ist Gegenstand der Forschung in der Wissenschaft der Künstlichen Intelligenz. Probabilistisch-relationale Grundlagen der Modellierung von Realweltsystemen und Techniken der Datenauswertung (Data Science, Data Mining, Machine Learning) und der optimierenden Entscheidungsfindung auf Basis großer Datenmengen (ggf. mit Web-Skalierung) sind grundlegend für die Wissenschaft der Künstlichen Intelligenz.

[Verantwortlich für den Text: Prof. Dr. Ralf Möller]

Im Master-Studiengang Informatik bieten wir für interessierte Studierende hierzu eine Vertiefung Data Science und KI, für die die Vertiefung Web und Data Science im Bachelor-Programm einen ideale Basis bietet. Für technisch interessierte Studierende bieten wir den Studiengang Robotik und Autonome Systeme. Im KI-Kolloquium werden verschiedene Forschungsarbeiten vorgestellt:

KI-Kolloquium der Universität zu Lübeck

14.10.19Zentrale Ideen hinter Dynamic StaRAI (Dynamic Stochastic Relational AI)Ralf Möller
4.11.19Kausale InferenzMaciej Liskiewicz
2.12.19Knowledge Graph EmbeddingsÖzgür Özcep
13.1.20Differential Privacy as Strong Robustness in Machine LearningEsfandiar Mohammadi
3.2.20Probabilistische Neuronale NetzeElmar Rückert

Ort: Seminarraum Institut für Theoretischen Informatik, 17.00 st bis 18.00

 

Anwendungen, Agenten, Repräsentationssprachen, Modelle, Daten, Algorithmen

Probleme des Alltags, die für Computer schwierig zu lösen sind, können vielfach von Menschen leicht gelöst werden (Klassifikation von multimodalen Inhalten, Gestaltung einer bilateralen multimodalen Kommunikation, Ad-hoc-Planung, um nur einige zu nennen). Die menschlichen Lösungen sind dabei allerdings (auf lange Sicht) meist fehlerbehaftet und approximativ. Schwierige Probleme mit großen Datenmengen und/oder hoher Kombinatorik sind dagegen von Menschen kaum einfach zu lösen (kollektive Klassifikation in großen relationalen Strukturen (Big Data), sichere Kommunikation mit vielen Teilnehmern, extreme Kurzzeit- oder auch rationale Langzeitplanung, usw.). 

Die Wissenschaft der Künstlichen Intelligenz ermöglicht es menschlichen Entwicklern, mit vertretbarem Aufwand leistungsfähige situierte Agenten zu erstellen, die Probleme im Verbund effizient lösen können, die sowohl für Computer als auch für Menschen schwierig sind. In den verschiedenen Anwendungsfeldern (z.B. in der Medizin, der Robotik oder auch der öffentlichen Verwaltung) müssen mit Unsicherheiten behaftete große Datenmengen sinnvoll automatisch disambiguiert und weiterverarbeitet werden. Hierzu sind Systeme nötig, die unsichere zeit- und raumbezogene Daten sowie multimodale Daten effizient verarbeiten können, so dass neben großen relationalen Datenbanken z.B. auch umfangreiche und verteilt vorliegende sprachliche oder bildliche Datenströme (z.T. in Echtzeit) in angemessener Weise interpretiert werden können.

Die KI-Systementwicklung baut auf der Repräsentation von übergreifendem Wissen aus verschiedenen Anwendungsfeldern in Form von stochastischen Modellen auf, basiert ggf. auf Techniken des maschinellen Lernens bzw. Data Minings zum Aufbau, zur Übertragung oder zur Weiterentwicklung der Modelle und endet mit der notwendigen automatischen Verifikation oder Weiterentwicklung von Systemen für sich ändernde Realweltbedingungen im Einsatz. Eventuell müssen auch bei dieser Vorgehensweise Approximationslösungen akzeptiert und, dem formalen Begriff der begrenzten Rationalität folgend, in ihrer Tragweite im Kontext von verteilten KI-Systemen (z.B. Intelligente Software-Agenten) bei der Bewertung der Qualität eines Systems verstanden werden.

Neben einer formalen Systemerstellung und Qualitätsprüfung spielt bei der Problemlösung auch die menschliche Interaktion eine Rolle. Berechnungsergebnisse und Reaktionen der mit Hilfe von Modellen und Daten erstellten Systeme müssen von Menschen in einem Systemkontext sinnvoll weiterverwendet werden können und sollen im Sinne einer Nachvollziehbarkeit und eines "Weiterdenkens" in die Interaktion zwischen Menschen in virtuellen und in Realweltsystemen flüssig integriert werden können. Um diesen Ansprüchen gerecht zu werden, übernimmt die Künstliche Intelligenz Techniken aus vielen anderen Wissenschaften, sofern sie für die obige Vision nützlich sind. 

 

Forschung in den Instituten

  • Das Institut für Informationssysteme (Leitung: Prof. Dr. Ralf Möller) arbeitet an den stochastisch-relationalen Grundlagen der Modellierung in der KI und an der automatischen Gewinnung von probabilistischen relationalen Modellen aus Daten (Data- und Text-Mining, Stochastic Relational Maschine Learning, Web und Data Science) sowie an effizienten Anfragebeantwortungs- und Schlussfolgerungsverfahren bezogen auf komplexe Modelle (Wissensbasen), große Datenmengen und ausdrucksstarken Ontologie-Beschreibungssprachen. IFIS bietet eine breite Palette an Lehrveranstaltungen in den Bereichen KI und Data Science und stellt regelmäßig die Ergebnisse seiner Forschungsarbeiten auf deutschen und internationalen KI-Konferenzen und Zeitschriften vor.

    Marcel Gehrke, Tanya Braun, Ralf Möller: Lifted Temporal Most Probable Explanation. In: Proc. of the International Conference on Conceptual Structures, 2019.

    Özgür L. Özçep, Felix Kuhr, Ralf Möller: Influence-Based Independence. In: Proc. 32nd Int. Florida Artificial Intelligence Research Society Conference (FLAIRS-19), 2019.

    F. Kuhr, R. Möller: Constructing and Maintaining Corpus-Driven Annotations. In: 2019 IEEE 13th International Conference on Semantic Computing (ICSC), p.462-467, 2019.

    Tanya Braun, Ralf Möller: Fusing First-order Knowledge Compilation and the Lifted Junction Tree Algorithm. In: 8th International Workshop on Statistical Relational AI at the 27th International Joint Conference on Artificial Intelligence, 2018.

    Tanya Braun, Ralf Möller: Parameterised Queries and Lifted Query Answering. In: IJCAI-18 Proceedings of the 27th International Joint Conference on Artificial Intelligence, p.4980-4986, 2018.

    Alexander Motzek, Ralf Möller: Indirect Causes in Dynamic Bayesian Networks Revisited. In: Journal of Artificial Intelligence Research (JAIR), Vol.59, p.1-58, 2017.

 

  • Das Institut für IT Sicherheit (Leitung: Prof. Dr. Thomas Eisenbarth) erforscht und verwendet Methoden des maschinellen Lernens zur Sicherheitsanalyse und Evaluation von Sicherheitsanwendungen. Darüber hinaus beschäftigt sich das Institut neuerdings mit der Manipulierbarkeit dieser Algorithmen, dem Adversarial Machine Learning, sowie dessen Verhinderung und Auswirkungen in sicherheitskritischen Anwendungen. Komplementär arbeitet das Institut ebenfalls daran, Lernverfahren so anzupassen, dass Daten einzelner Personen geschützt bleiben.

 

  • Das Institut für Mathematik (Leitung: Prof. Dr. Jürgen Prestin) arbeitet unter anderem in den Bereichen Wavelet- und Zeit-Frequenz-Analysis, symbolische Dynamik sowie Modellierung, Parameterschätzung und Simulation mit Anwendung auf komplexe Daten in den Bereichen Medizin und Finance. Im Fokus stehen insbesondere die gezielte Extraktion von Information aus Daten und die Gewinnung geeigneter Features für die Detektion und Klassifikation von Systemzuständen.

 

  • Das Institut für mathematische Methoden der Bildverarbeitung (Leitung: Prof. Dr. Jan Modersitzki) erforscht Methoden der KI in den Bereichen medizinischer Bildverarbeitung und Optimierung. In der Bildverarbeitung stehen dabei KI-Methoden zur Klassifikation, Mustererkennung und Wissensgenerierung klinischer Daten im Vordergrund, in der Optimierung KI-basierte Ansätze zur Beschleunigung und Robustheit von Verfahren. Zudem ist das Institut das Brückeninstitut zum Fraunhofer-Institut für Digitale Medizin MEVIS. MEVIS erforscht und entwickelt Verfahren der KI umfänglich u.a. in den Bereichen Entscheidungsunterstützung, klinische Workflow-Unterstützung, Infrastruktur für KI-Software, Translation KI-basierter Systeme.

 

  • Das Institut für Medizinische Elektrotechnik (Leitung: Prof. Dr. Philipp Rostalski) forscht und lehrt an Methoden der statistischen Lerntheorie mit Anwendungen in der (Bio-) Signalverarbeitung, der Parameterschätzung sowie der Regelung von sicherheitskritischen, autonomen Systemen. Methodischer Schwerpunkt liegt auf bayesschen Algorithmen basierend auf probabilistischen graphischen Modellen sowie Gauß-Prozessmodellen und der darauf basierenden Anwendung von Optimierungsverfahren. In verschiedenen Industrieprojekten, sowie in zahlreichen Veröffentlichungen und Patenten kommt die Praxisrelevanz dieser Forschung zum Ausdruck.

 

  • Das Institut für Medizinische Informatik (Leitung: Prof. Dr. Heinz Handels) arbeitet seit Jahren in dem Bereich der KI-basierten medizinischen Bild- und Signalverarbeitung und entwickelt diagnose- und therapieunterstützende Methoden und Systeme unter Verwendung neuester maschineller Lernverfahren (Neuronale Netze, Deep Learning  etc.). Diese Themen werden in verschiedenen drittmittelgeförderten Forschungsprojekten und Industriekooperationen bearbeitet.

 

  • Am Institut für Multimediale und Interaktive Systeme (Leitung: Prof. Dr. Michael Herczeg) wird seit Jahren im Bereich der symbolischen KI geforscht. Das zentrale Thema dabei ist „Explainable AI“, d.h. die Fähigkeit von KI-Systemen Nutzern ihre Schlussfolgerungen verständlich zu erklären und dadurch ein hohes Maß an Transparenz und Vertrauen vor allem in sicherheitskritischen komplexen Domänen wie Medizin oder Mobilität  aber auch in alltäglichen datenreichen Smart Environments wie Ambient Assisted Living, Smart Buildings oder Smart Cities zu gewährleisten.

 

  • Das Institut für Neuro- und Bioinformatik (Leitung: Prof. Dr. Thomas Martinetz) forscht und lehrt seit Jahren auf dem Gebiet des maschinellen Lernens und der Neuronalen Netze (Deep Learning) in den Bereichen der Bildverarbeitung und der Mustererkennung mit Anwendungen in Medizin, Biologie und Industrie. Neben langjährigen Industriekooperationen gingen mehrere erfolgreiche Start-Ups im Bereich der KI aus dem Institut hervor.

    Madany Mamlouk, Amir and Haker, Martin and Martinetz, Thomas: Perception Space Analysis: From color vision to odor perception. International Joint Conference on Neural Networks (IJCNN), pp. 689-696, 2017 

    Boris Knyazew and Erhardt Barth and Thomas Martinetz: Recursive autoconvolution for unsupervised learning of convolutional neural networks. 2017 International Joint Conference on Neural Networks (IJCNN), pp. 2486-2493, 2017 

    Stanislau Semeniuta and Aliaksei Severyn and Erhardt Barth: A Hybrid Convolutional Variational Autoencoder for Text Generation. in EMNLP, pp. 627-637, Association for Computational Linguistics, 2017 

    Stanislau Semeniuta and Aliaksei Severyn and Erhardt Barth: Recurrent Dropout without Memory Loss. in COLING, pp. 1757-1766, ACL, 2016 

    Lars Hertel and Erhardt Barth and Thomas Käster and Thomas Martinetz: Deep Convolutional Neural Networks as Generic Feature Extractors. in Proc. 2015 IEEE International Joint Conference on Neural Networks (IJCNN), Killarney, Ireland, 2015 

    Schütze, Henry and Barth, Erhardt and Martinetz, Thomas: Learning Orthogonal Sparse Representations by Using Geodesic Flow Optimization. in IJCNN 2015 Conference Proceedings, pp. 15540:1-8, 2015 

 

  • Das Institut für Robotik und Kognitive Systeme (Leitung: Prof. Dr. Achim Schweikard) forscht und lehrt seit Gründung (2002) an den Themen Robotik und Künstliche Intelligenz in Industrie und Medizin. Zahlreiche Technologien in den Bereichen Radiochirurgie, Orthopädische Chirurgie und Neurochirurgie wurden von uns entwickelt und in Zusammenarbeit mit Firmen in den vollen weltweiten klinischen Routineeinsatz gebracht.

    Daniel Tanneberg, Jan Peters and Elmar Rueckert, Intrinsic Motivation and Mental Replay enable Efficient Online Adaptation in Stochastic Recurrent Networks (2019), in: Neural Networks - Elsevier, 109(67-80)

    Nils Rottmann, Ralf Bruder, Achim Schweikard and Elmar Rueckert, Loop Closure Detection in Closed Environments, European Conference on Mobile Robots (ECMR 2019), 2019 

    Adrian Sosic, Elmar Rueckert, Jan Peters and Abdelhak M Zoubir, Inverse Reinforcement Learning via Nonparametric Spatio-Temporal Subgoal Modeling (2018), in: Journal of Machine Learning Research (JMLR)

    Elmar Rueckert, Learning to Categorize Bug Reports with LSTM Networks, in: Proceedings of the International Conference on Advances in System Testing and Validation Lifecycle (VALID), Nice, France, pages 6, XPS (Xpert Publishing Services), 2018

 

  • Das Institut für Signalverarbeitung (Leitung: Prof. Dr. Alfred Mertins) forscht und lehrt seit vielen Jahren auf dem Gebiet der Signal- und Datenverarbeitung mittels Maschinellen Lernens. Insbesondere Deep-Learning-Methoden finden dabei Anwendung in der Biosignalanalyse, der akustischen Ereigniserkennung und der Bildrekonstruktion aus gestörten Messungen.

    Koch, P., Brügge, N., Phan, H., Maass, M. and Mertins, A.: Forked Recurrent Neural Network for Hand Gesture Classification Using Inertial Measurement Data in Proc. 44 th IEEE Intl. Conf. on Acoustics, Speech and Signal Processing (ICASSP 2019), Brighton, UK, May, 2019 

    Phan, H., Chen, O. Y., Koch, P., Pham, L., McLoughlin, I., Mertins, A. and De Vos, M.: Unifying Isolated and Overlapping Audio Event Detection with Multi-Label Multi-Task Convolutional Recurrent Neural Networks in Proc. 44 th IEEE Intl. Conf. on Acoustics, Speech and Signal Processing (ICASSP 2019), Brighton, UK, May, 2019 

    Huy Phan and Lars Hertel and Marco Maass and Philipp Koch and Radoslaw Mazur and Alfred Mertins: Improved Audio Scene Classification Based on Label-Tree Embeddings and Convolutional Neural Networks. IEEE/ACM Trans. Audio, Speech, and Language Processing (TASLP), no. 25, pp. 1278-1290, 06, 2017 

    Lars Hertel and Huy Phan and Alfred Mertins: Comparing Time and Frequency Domain for Audio Event Recognition Using Deep Learning. in Proc. 2016 IEEE International Joint Conference on Neural Networks (IJCNN), Vancouver, Canada, 2016 

 

  • Das Institut für Softwaretechnik und Programmiersprachen (Leitung: Prof. Dr. Martin Leucker) arbeitet an Engineering-Fragestellungen für intelligente Systeme, insbesondere im Bereich der Medizintechnik und der Logistik. Hierzu werden Lernverfahren von Automaten erarbeitet, die sich zur Beschreibung des Verhaltens dieser Systeme besonders eignen und die Basis von Sicherheitsanalysen darstellen.

 

 

  • Das Institut für Telematik (Leitung: Prof. Dr. Stefan Fischer) arbeitet an Fragestellungen zu den Themen Internet der Dinge, Cyber-Physical Systems und Nanorobotik und -kommunkation. Dabei stehen zurzeit Selbstorganisation von intelligenten IoT-Verbünden wie bspw. die automatisierte Bildung von Ensembles im Ambient Computing mit Hilfe lernender KI-Methoden und die Organisation von In-Body Nano-Netzwerken im Vordergrund.