Plattform Lernende Systeme

Die Plattform Lernende Systeme will Deutschland international als Technologieführer für Lernende Systeme positionieren und deren Anwendung im Sinne der Gesellschaft gestalten. Sie vereint Expertise aus Wissenschaft, Wirtschaft und Gesellschaft.

Beteiligte Personen der Plattform Lernende Systeme

BMBF/Hans-Joachim Rickel

Lernende Systeme - Künstliche Intelligenz und maschinelles Lernen - sind im unserem Alltag angekommen. Roboter, Assistenz- und intelligente Softwaresysteme bearbeiten zunehmend komplexere Aufgaben und passen sich unterschiedlichsten Situationen an. Lernende Systeme und die Werkzeuge der Künstlichen Intelligenz (KI) sind die nächste Entwicklungsstufe der Digitalisierung. Dabei geht es darum, technische Systeme so zu konzipieren, dass sie Probleme eigenständig bearbeiten und sich dabei selbst auf veränderte Bedingungen einstellen können. Dadurch erweitern Lernende Systeme beständig ihr Wissen auf Basis von Daten und sind in der Lage, Tätigkeiten in einem komplexen Umfeld auszuführen.

Zentrale Arbeitsfelder der Plattform sind Erweiterungen der technischen Grundlagen sowie die Exploration neuer Anwendungsfelder und dafür notwendige Entwicklungsbedarfe. So ist die Nachvollziehbarkeit der Ergebnisse von KI-Systemen eine Frage, die sich in vielen Anwendungsfeldern neu stellt. Zu den Leistungsmerkmalen klassischer KI-Systeme gehören schon seit langer Zeit auch „Erklärkomponenten“. Die Methoden des maschinellen Lernens erlauben jedoch nicht, solche Lösungen einfach zu übertragen. Hier sind neue Ansätze nötig.

Rechtliche Fragen zu Künstlicher Intelligenz

Mit der Einführung Lernender Systeme gehen sowohl Chancen als auch Risiken einher. Dafür müssen möglicherweise neue rechtliche Regelungen gefunden oder bestehendes Recht angepasst werden. Übernehmen Lernende Systeme mehr und mehr Aufgaben von den Menschen, stellen sich beispielsweise neue Fragen im Haftungsrecht. Die Systeme besitzen selbst keine Rechtspersönlichkeit. Jedoch lassen sich Fehlfunktionen Lernender Systeme nicht immer zweifelsfrei auf menschliches Verhalten bei der Programmierung oder Bedienung zurückführen. Denn die Systeme lernen auch im Betrieb dazu, wodurch nicht immer nachvollziehbar ist, wie ein bestimmtes Lernergebnis entstanden ist.

Datenschutz und Privatheit

Neu gedacht werden muss auch der Datenschutz und die Privatheit der Menschen – also die Möglichkeit zu entscheiden, wann wie viele Informationen über sich preisgegeben oder verborgen werden soll. Viele Anwendungen und Fortschritte im Bereich Lernender Systeme beruhen darauf, aus großen Mengen an Daten, darunter auch personenbezogene, neue Informationen zu gewinnen oder die Systeme mit diesen Daten zu trainieren. Sie können potenziell aber auch zur Überwachung eingesetzt werden oder durch die Kombination unterschiedlicher Datensätze Informationen über Individuen ableiten, die diese nicht preisgeben möchten. Hinzu kommt, dass diese Verfahren auch nicht verifizierbare und nachvollziehbare Analogie-Schlussfolgerungen erzeugen, die dennoch möglicherweise nachteilige Folgen haben.

Jörn Müller-Quade vom Karlsruher Institut für Technologie, einer der Leiter der AG „IT-Sicherheit, Privacy, rechtliche und ethische Rahmenbedingungen“ der Plattform, sieht vor allem den Datenschutz als eine relevante Herausforderung: „IT-Systeme, die intelligent sind, können viel mehr über einzelne Personen herausfinden. Andererseits können Intelligente Systeme abstrahieren von diesen personenbezogenen Daten. Letztlich stellt sich auch die Frage nach der Fairness, wenn intelligente Algorithmen urteilen können – ist dies diskriminierungsfrei?“

Ethische Fragen zu Künstlicher Intelligenz

Übernehmen Lernende Systeme Aufgaben oder Entscheidungen mit gesellschaftlichen oder ethischen Dimensionen, dann werden auch die zuvor an die Menschen gestellten gesellschaftlichen und ethischen Anforderungen auf sie übertragen. Jedoch sind die Systeme nicht von sich aus in der Lage, moralische Entscheidungen zu treffen oder ihre Entscheidungen nach moralischen Maßstäben zu beurteilen. Die ethischen Anforderungen richten sich deshalb an den Prozess der Programmierung und den Einsatz Lernender Systeme. Dazu kommen die Anforderungen nach Fairness und Diskriminierungsfreiheit von Entscheidungen zu Künstlicher Intelligenz und die Fragen, wie diese Kriterien formal gefasst werden können. KI-Entscheidungen könnten beispielsweise Personen diskriminieren, ohne dass die Entwickler der Systeme dies beabsichtigt haben.

Wichtige Aspekte nennt Eric Hilgendorf von der Universität Würzburg, ein weiterer Leiter der AG „IT-Sicherheit, Privacy, rechtliche und ethische Rahmenbedingungen“ der Plattform:

„Es geht darum sicher zu stellen, dass der Mensch weiterhin im Mittelpunkt bleibt und nicht die Technik übernimmt. Es muss geprüft werden, welche Werte unserer Gesellschaft zu Grunde liegen und man muss fragen, welche rechtlichen Änderungen nötig sind. Man sollte mit Fragen der Verantwortung und der Haftung beginnen. Denn die Künstliche Intelligenz wirft hier alles über den Haufen, was wir bisher gelernt haben.“

Die Plattform für Expertise

Die Mitglieder der Plattform Lernende Systeme sind in Arbeitsgruppen und einem Lenkungskreis organisiert. Sie zeigen den persönlichen, gesellschaftlichen und wirtschaftlichen Nutzen von Lernenden Systemen auf, benennen aber auch Herausforderungen und Gestaltungsoptionen.