Erklärbarkeit und Transparenz
Wie können wir automatisierte Entscheidungen von Künstlicher Intelligenz für die Anwenderinnen und Anwender verständlich und nachvollziehbar darstellen?
Immer mehr Entscheidungen in unserer Lebens- und Arbeitswelt werden automatisiert von Maschinen mit Künstlicher Intelligenz (KI) gefällt. Damit diese zunehmende Automatisierung nicht mit dem Verlust demokratischer Kontrolle und gesellschaftlicher Akzeptanz gegenüber KI-Technologien einhergeht, müssen Politik, Wissenschaft und Wirtschaft gemeinsam Strategien entwickeln, um die Erklärbarkeit und Transparenz von algorithmischen Entscheidungen sicher zu stellen.
Dauerhafte Sicherheit
Wie können wir Künstliche-Intelligenz-Systeme sicher gestalten und kritische Fehlfunktionen ausschließen?
Ob beim autonomen Fahren, in der Medizintechnik oder in der Industrie: Mit ihrer zunehmenden Verbreitung dringen Technologien Künstlicher Intelligenz (KI) auch immer weiter in sicherheitskritische Bereiche vor. Dabei lernen die Systeme sich unterschiedlichen Situationen anzupassen. Eine entscheidende Herausforderung ist dabei, sicherzustellen, dass sie nicht das „falsche“ lernen, um kritischen Fehlfunktionen dieser Techniken auszuschließen.
Überwachung und Selbstbestimmtheit
Wie verhindern wir, dass uns Staat und Wirtschaft mit Hilfe Künstlicher Intelligenz überwachen?
Mit dem Einzug von Technologien Künstlicher Intelligenz (KI) in unsere Mobiltelefone, Smartwatches oder in die Videoüberwachung des öffentlichen Raums, steigt das Risiko einer umfassenden Überwachung durch staatliche und private Akteure. Insbesondere Technologien der Gesichts- und Verhaltenserkennung können hierfür missbraucht werden. Eine entscheidende aktuelle und zukünftige Herausforderung ist daher, die Grundrechte von Bürgerinnen und Bürgern zu schützen, damit sich diese frei und selbstbestimmt in einer von KI durchdrungenen Welt bewegen können.
Handlungsgrenzen
Welche Entscheidungen dürfen zukünftig automatisiert von Systemen mit Künstlicher Intelligenz getroffen werden und welche nicht? Und was sind Bedingungen dafür?
Systeme mit Künstlicher Intelligenz (KI) werden in naher Zukunft zu einem hohen Maß an Eigenständigkeit fähig sein. Mit der steigenden Komplexität der Systeme werden ihre Entscheidungsgrundlagen zunehmend schwer nachzuvollziehen bzw. nur aufwändig zu rekonstruieren sein. Auch deswegen braucht es Regelungen dafür, welche Verantwortung diesen Systemen unter welchen Bedingungen übertragen werden darf und welche Entscheidungen grundsätzlich dem Menschen vorbehalten bleiben sollten.
Integration von Lernformen
Wie lassen sich unterschiedliche Formen des maschinellen Lernens effizient zusammenführen?
Aktuell wird maschinelles Lernen vor allem als Mustererkennung in großen Datenmengen verstanden, deren Ergebnisse für den Menschen oftmals nur schwer oder gar nicht nachvollziehbar sind. Alternativ existieren interpretierbare Verfahren des maschinellen Lernens wie die klassischen Entscheidungsbäume sowie induktive Programmierung. Induktive logische Programmierung ermöglicht eine natürliche Kombination von Lernen und wissensbasierten Methoden der Künstlichen Intelligenz. Die Kombination der unterschiedlichen Methoden kann helfen, datensparsamere Ansätze des maschinellen Lernens zu entwickeln, die robust und transparent sind.
Diskriminierung durch Algorithmen
Wie können wir maschinengemachte Diskriminierung verhindern?
Ob bei der Bewertung der Kreditwürdigkeit oder der Auswahl von Bewerberinnen und Bewerbern: Mit der immer effizienter werdenden Erhebung und Verarbeitung von Daten durch Systeme mit Künstlicher Intelligenz (KI) bietet sich die Chance, Entscheidungen frei von menschlichen Vorurteilen und Diskriminierung zu fällen. Dennoch können KI-Algorithmen unter dem Schleier scheinbar datengetriebener Objektivität genauso dazu beitragen, bestehende Diskriminierungen zu festigen oder gar neue zu schaffen. Dies zu verhindern, ist Aufgabe von Wirtschaft, Wissenschaft und Politik.
Ressourceneffizienz
Welche neuen Ansätze können wir entwickeln, um Technologien Künstlicher Intelligenz weniger ressourcenintensiv zu machen?
Vor dem Hintergrund schwindender natürlicher Rohstoffe und der wachsenden Herausforderung des Klimawandels gilt es, Technologien Künstlicher Intelligenz (KI) zu entwickeln, die ressourcen- und energieeffizienter sind als heutige Lösungen. Hierzu gehört auch die Nutzung von weniger datenintensiven Methoden des Maschinellen Lernens sowie die Entwicklung intelligenter Methoden, um das Speichern irrelevanter Daten zu vermeiden. Die Vereinbarkeit des technologischen Fortschritts mit dem Schutz unseres Planeten ist entscheidend für die Zukunft der Menschheit.
Einhaltung von Standards
Wie können wir einheitliche Qualitätskriterien für Künstliche Intelligenz definieren und deren Einhaltung überprüfen?
Die Sicherheit von Systemen mit Künstlicher Intelligenz (KI) erfordert die Entwicklung von Qualitätsstandards. Deren Einhaltung in der Praxis auf technischer und institutioneller Ebene sicher zu stellen, ist essentiell, um eine breite Akzeptanz von KI in der Bevölkerung zu schaffen. Dazu müssen neue Methoden der technischen Qualitätssicherung entwickelt werden.
Verantwortung und Haftung
Wer trägt die moralische und juristische Verantwortung für automatisierte Entscheidungen von Künstlicher Intelligenz?
Insbesondere automatisierte Entscheidungen, welche unter Verwendung großer Datenmengen und komplexer neuronaler Netze getroffen werden, sind für den Menschen in vielen Fällen nicht rekonstruierbar. Um den Entwicklerinnen und Entwicklern sowie den Anwenderinnen und Anwendern von Künstlicher Intelligenz (KI) Sicherheit zu geben, muss geklärt werden, wer zukünftig unter welchen Umständen für automatisierte Entscheidungen von KI-Systemen verantwortlich ist.
Bildung
Wie können wir Grundlagenwissen zu Künstlicher Intelligenz stärker in der Allgemein- und Weiterbildung verankern?
Systeme mit Künstlicher Intelligenz (KI) gewinnen in unserer Lebens- und Arbeitswelt zunehmend an Relevanz und treiben die digitale Transformation unserer Gesellschaft maßgeblich voran. Um die digitale Mündigkeit aller Menschen zu stärken und ihnen eine Einschätzung und Bewertung aktueller Entwicklungen durch KI zu ermöglichen, muss ein Grundverständnis von KI stärker als bisher in Aus- und Weiterbildung integriert werden.