KI: Wie lässt sich Unsicherheit berechnen?

Mathematische Garantien für neuronale Netzwerke
lz
KI Einsatz in der Medizin
© Dee karen/stock.adobe.com
Newsletter­anmeldung

Bleiben Sie auf dem Laufenden. Der MT-Dialog-Newsletter informiert Sie jede Woche kostenfrei über die wichtigsten Branchen-News, aktuelle Themen und die neusten Stellenangebote.


* Pflichtfeld

Zuverlässigkeit ist bei KI-Systemen beim Einsatz z.B. in der Medizin ein notwendiges Ziel. Doch wie verlässlich ist künstliche Intelligenz wirklich? Dies lässt sich nun berechnen.

Ein interdisziplinäres Forschungsteam der TU Wien hat eine Methode entwickelt, mit der sich exakt berechnen lässt, wie sicher ein neuronales Netzwerk in einem definierten Inputbereich arbeitet. Das bedeutet: Man könnte damit mathematisch garantieren, dass bestimmte Fehler nicht passieren – ein entscheidender Schritt für den sicheren Einsatz von KI in sensiblen Bereichen. „Das volle Spektrum möglicher Ergebnisse zu verstehen, hilft dabei, bessere und sicherere Entscheidungen zu treffen – insbesondere in Bereichen, in denen viel auf dem Spiel steht, wie im Finanzwesen, im Gesundheitswesen oder im Ingenieurwesen“, betont Dr. Andrey Kofnov. „Indem wir die Wahrscheinlichkeit möglicher Ergebnisse berechnen, können wir wichtige Fragen beantworten wie: Wie hoch ist die Wahrscheinlichkeit eines extremen Ergebnisses? Wie hoch ist das Risiko?“ Denn gerade in sensiblen Bereichen sei es wichtig zu wissen, ob man garantieren kann, dass ein KI-System keine schwerwiegenden Fehler macht – auch wenn der Input leicht variiert.

Unsicherheiten bei der Ausgabe

Das Forschungsteam der TU Wien – Dr. Andrey Kofnov, Dr. Daniel Kapla, Prof. Efstathia Bura und Prof. Ezio Bartocci – aus den Fachbereichen Informatik, Statistik und Mathematik, hat nun einen Weg gefunden, neuronale Netzwerke so zu analysieren, dass für definierte Eingabebereiche exakt berechnet werden kann, in welchem Wertebereich die Ausgaben liegen werden – und welche Fehler garantiert ausgeschlossen sind. „Neuronale Netze verhalten sich normalerweise vorhersehbar – sie geben jedes Mal die gleiche Ausgabe, wenn man den gleichen Input eingibt“, sagt Kofnov. „Aber in der realen Welt sind die Eingaben oft verrauscht oder unsicher und können nicht immer durch einen einzigen, festen Wert beschrieben werden. Diese Unsicherheit bei der Eingabe führt zu Unsicherheit bei der Ausgabe.“ „Nehmen wir an, ein neuronales Netz bekommt ein Bild als Input – und soll sagen, welches Tier es zeigt“, erklärt Prof. Ezio Bartocci. „Was passiert dann, wenn das Bild leicht verändert ist? Eine andere Kamera, etwas mehr Rauschen, veränderte Lichtverhältnisse – kann das dazu führen, dass die KI plötzlich etwas völlig anderes erkennt?“

Mathematik im hochdimensionalen Raum

Die Lösung der TU Wien basiert auf einem geometrischen Ansatz: „Die Menge aller möglichen Inputs – zum Beispiel die Menge aller möglichen Bilder, die man einem solchen AI-System eingeben kann, kann man sich geometrisch als Raum vorstellen, ähnlich wie unsere dreidimensionale Welt, aber mit einer beliebigen Zahl von Dimensionen“, sagt Prof. Efstathia Bura vom Institut für Stochastik und Wirtschaftsmathematik der TU Wien. „Wir zerlegen diesen Raum in kleine Teilbereiche, für die sich jeweils exakt bestimmen lässt, welche Ausgaben das neuronale Netz generiert.“ Dadurch lasse sich mathematisch die Wahrscheinlichkeit für unterschiedliche Ergebnis-Bereiche ermitteln, sodass bestimmte Fehler mit 100% Sicherheit ausgeschlossen werden könnten. Der Haken: Die Theorie sei noch nicht auf große neuronale Netze, wie z. B. Large Language Models, anwendbar. „Eine KI wie ChatGPT ist viel zu komplex für diese Methode. Sie zu analysieren, würde eine unvorstellbare Menge an Rechenleistung erfordern“, sagt Daniel Kapla. „Aber wir haben gezeigt, dass zumindest für kleine neuronale Netze eine rigorose Fehlerquantifizierung möglich ist.“

Literatur:
Die Publikation wurde nach Peer-Review für die Konferenz ICML 2025 angenommen.
Preprint: 
Kofnov A, Kapla D, Bartocci E, Bura E: Exact Upper and Lower Bounds for the Output Distribution of Neural Networks with Random Inputs. arXiv:2502.11672.

Quelle: idw/TU Wien

Artikel teilen

Online-Angebot der MT im Dialog

Um das Online-Angebot der MT im Dialog uneingeschränkt nutzen zu können, müssen Sie sich einmalig mit Ihrer DVTA-Mitglieds- oder Abonnentennummer registrieren.

Stellen- und Rubrikenmarkt

Möchten Sie eine Anzeige in der MT im Dialog schalten?

Stellenmarkt
Industrieanzeige