Projektbeschreibung

Grundlegende Motivation des Projektes:
Grenzen erforschen, erweitern & aufzeigen

Durch eine Erweiterung des fundamentalen Theorems der statistischen Lerntheorie möchten wir einerseits der Anwendung weitere Sicherheit geben. Andererseits möchten wir durch unsere Konstruktion nicht-lernbarer neuronaler Netze verdeutlichen, dass die Grenzen maschinellen Lernens und damit der künstlichen Intelligenz schneller erreicht werden können, als man vielleicht erwartet hätte. Auch wenn diese Grenzen ebenso abstrakt sind, ist gerade dies ein Bestandteil der Grundlagenforschung: Das Ausloten des Machbaren und des Nicht-Machbaren.

Viele aktuelle Methoden der künstlichen Intelligenz setzen (künstliche) neuronale Netze als zentrale Komponente ein. Neben anwendungsbezogener Forschung, die sich auf die Verbesserung neuronaler Netze für die Praxis konzentriert, setzt sich die statistische Lerntheorie in der Grundlagenforschung mit Lernprozessen neuronaler Netze auseinander: Mathematisch betrachtet ist ein neuronales Netz eine Sammlung von Funktionen von einer Eingabe- in eine Ausgabemenge. Ein erfolgreicher Lernprozess ermittelt unter diesen Funktionen eine solche, die für die gewünschte Anwendung am wenigsten fehleranfällig ist. Für die statistische Lerntheorie steht daher die Frage im Zentrum, ob ein bestimmtes neuronales Netz immer – unabhängig von der Anwendung – einen erfolgreichen Lernprozess vollziehen kann. Dies ist beispielsweise der Fall, wenn die Eingabemenge aus allen reellen Zahlen und die Ausgabemenge aus den Werten 0 und 1 besteht sowie die eingesetzten Funktionen eine gewisse einfache Form haben. Die Hauptaufgabe unseres Projektes ist es, alle Zahlenbereiche innerhalb der reellen Zahlen zu ermitteln, die als Eingabemenge zugelassen werden können, um stets erfolgreiche Lernprozesse zu garantieren. Ebenso konstruieren wir konkrete neuronale Netze, für die nicht immer ein erfolgreicher Lernprozess existiert. So ist unser übergeordnetes Ziel, die absoluten mathematischen Grenzen der künstlichen Intelligenz zu erkunden.

Unsere Lösungsansätze führen zur offenen Vermutung von Shelah–Hasson, die an der Schnittstelle zwischen mathematischer Logik und abstrakter Algebra liegt und seit acht Jahren intensiv beforscht wird. Seit den 1990ern ist überdies bekannt, dass eine Verbindung zwischen der mathematischen Logik und der statistischen Lerntheorie besteht, obwohl die beiden Bereiche innerhalb der Mathematik als einerseits grundlagentheoretisch und andererseits anwendungsbezogen weit voneinander entfernt sind.

Unser neuartiger Ansatz soll diese bisher wenig beachtete Verbindung nutzen, um die jüngsten Fortschritte über die Vermutung von Shelah–Hasson für fundamental-theoretische Erkenntnisse in der statistischen Lerntheorie fruchtbar zu machen. Im Zentrum steht ein Spezialfall dieser Vermutung, dessen Beweis implizieren würde, dass genau jene Eingabemengen, die sich algebraisch wie die Menge der reellen Zahlen verhalten, zu stets erfolgreichen Lernprozessen führen. Die verbleibenden Eingabemengen nutzen wir für die Konstruktion neuronaler Netze, die nicht immer einen erfolgreichen Lernprozess vollziehen.

Unsere mutige neue Forschungsidee besteht darin, den uns gewohnten Bereich der mathematischen Logik zu verlassen, um die statistische Lerntheorie mit neuen Grundlagen zu untermauern. Dieser innermathematisch interdisziplinäre Ansatz birgt die Gefahr, dass keine gemeinsame Sprache zwischen den beiden Gebieten gefunden werden kann. Ist diese Verständigungsbrücke jedoch erst einmal gebaut, bietet sich ein hohes Potential für den beidseitigen Austausch neuer Resultate.