Nachgefragt zum Thema ... Zertifizierung von KI

„Bei KI geht es um Verantwortung“

Künstliche Intelligenz ist als Megatechnologie in aller Munde. Doch wie sehen konkrete Qualitäts- und Sicherheitsstandards aus, auf deren Grundlage technische Prüforganisationen künftig KI-Anwendungen sachkundig beurteilen können? Antworten liefert Dr. Maximilian Poretschkin in dem folgenden Expertengespräch.

Herr Dr. Poretschkin, Sie sind Mitautor des Whitepapers „Vertrauenswürdiger Einsatz von Künstlicher Intelligenz“. Was ist KI aus Ihrer Sicht – und was nicht? KI ist zunächst einmal ein Forschungsfeld aus der Informatik, das in den 50er Jahren des letzten Jahrhunderts entstanden ist mit dem Ziel, intelligentes Verhalten zu automatisieren. Seit diesem Zeitpunkt sind unzählige Techniken entwickelt worden, um dieses Ziel zu realisieren. Wenn wir heute von KI sprechen, meinen wir häufig das Maschinelle Lernen: Lernen aus vielen Beispieldaten. KI ist sehr gut geeignet, um Muster zu erkennen, denken Sie an Bild- oder Spracherkennung. In diesem Feld kann KI deutlich bessere Resultate erzielen als der Mensch. Was KI nicht kann: nach selbst formulierten Zielen zu handeln, ein Bewusstsein zu entwickeln – all die Eigenschaften also, die wir der menschlichen Intellektualität darüber hinaus noch zuschreiben.

Maximilian Poretschkin Zertifizierung von KI 600

…was dann schon in Richtung Superintelligenz ginge. Richtig. Von dieser Diskussion muss man sich wissenschaftlich abgrenzen. Oder anders gesagt: Man muss in der öffentlichen Wahrnehmung die Grenze schärfen zwischen dem, was technisch und nach dem wissenschaftlichen Stand überhaupt möglich ist – und was in den Bereich der Science Fiction gehört.

Welche Ziele verfolgen Sie mit Ihrem Whitepaper? Primäres Ziel war zunächst einmal, konkrete Qualitäts- und Sicherheitsstandards auszuarbeiten, auf deren Grundlage technische Prüforganisationen künftig KI-Anwendungen sachkundig beurteilen können. Zum anderen ist es für uns wichtig, einen interdisziplinären Dialog zu führen. Dazu arbeiten Experten aus verschiedenen Fachgebieten zusammen. Mit unserem Whitepaper wollen wir aber auch zum gesellschaftlichen Dialog in Sachen KI beitragen.

Ihre Kollegen vom Fraunhofer IOSB entwickeln u.a. intelligente Videoüberwachung, die auf dem Einsatz von KI beruht. In diesem Zusammenhang sprechen sie vom Privacy-by-Design-Prinzip. Worum handelt es sich dabei? KI verarbeitet oft sehr große Datenmengen und „lernt“ Muster, die darin enthalten sind. Bei diesen Daten kann es sich um personenbezogene Daten, aber auch um Geschäftsgeheimnisse handeln. Aus diesem Grund ist Datenschutz im Zusammenhang mit KI ein sehr wichtiges Thema. Das haben wir auch ausführlich in unserem Whitepaper dargestellt. Datenschutz, aber auch ethische Aspekte, müssen bereits beim Design der Anwendung über die Entwicklung bis hin zum Operativeinsatz mitgedacht werden.

Welche Mengen an Daten sollten Ihrer Meinung nach Eingang in eine KI finden? In diesem Zusammenhang stellt sich uns die Frage nach der Datensparksamkeit. Meint: Wie lässt sich eine Anwendung so gestalten, dass sie tatsächlich nur mit den notwendigsten Daten auskommt und nicht zu viele personenbezogene Daten aufnimmt. Nehmen wir nochmals das Beispiel Videoüberwachung: Hier kann KI unter Berücksichtigung des Datenschutzes so eingesetzt werden, dass nicht einzelne Personen aufgenommen oder auf dem Monitor gezeigt werden. Stattdessen werden die Personen durch KI anonymisiert und nur in wichtigen Fällen, etwa wenn eine Straftat vermutet wird, aufgelöst. Schließlich besteht ein Interesse der Allgemeinheit daran, Fehlverhalten oder Straftaten zu verhindern, das in diesem Falle möglicherweise das Interesse am Datenschutz dieser Person überwiegt. Das führt uns direkt mitten ins Zentrum der ethischen Diskussion: Wofür wollen wir KI einsetzen? Und wofür eben auch nicht.

Viele leistungsstarke kognitive Instrumente der KI sind intransparent. Wie kann deren „Handeln“ überprüft und kritisch bewertet werden? Das ist tatsächlich eine relevante Frage. Bei bestimmten Realisierungen von KI, etwa durch tiefe Neuronale Netze, kann es aufgrund der Komplexität dazu kommen, dass selbst Experten nur mit sehr großem Aufwand nachvollziehen können, wie eine bestimmte Entscheidung zustande gekommen ist. Andere Verfahren sind hingegen sehr transparent, was das Zustandekommen ihrer Entscheidungen anbelangt. Darüber hinaus ist es auch wichtig, zwischen Anwendern und Experten zu unterscheiden. Anwender möchten unter Umständen eine einfache Begründung für eine bestimmte Entscheidung oder Empfehlung haben, ohne die Grundlagen von Künstlicher Intelligenz zu kennen. Von daher ist es derzeit tatsächlich ein aktives Forschungsfeld, Verfahren zu entwickeln, die die wichtigen Parameter für den Entscheidungsfindungsprozess transparent machen und darstellen. 

Letzte Frage. Die Leistungsfähigkeit von KI in Form von Maschinellen Lernen nimmt – angetrieben durch Big Data – rasant zu. Kann die Entwicklung eines ethischen Rahmens mit der Entwicklungsgeschwindigkeit von KI und Robotik Schritt halten? Das kann sie – und das muss sie vor allen Dingen auch. Denn diese Entwicklung findet ja statt und was ganz wichtig ist, dass wir ganz stark im interdisziplinären Dialog sind: Ethik, Philosophie, die Rechtswissenschaften und die Informatik. Einerseits auf einer Expertenebene, andererseits aber auch in einem breiten gesellschaftlichen Dialog.

Dr. Maximilian Poretschkin ist Senior Data Scientist am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS.

Hier können Sie das Whitepaper Vertrauenswürdiger Einsatz von Künstlicher Intelligenz herunterladen.

LOG_X Verlag GmbH • Königsallee 43 • 71638 Ludwigsburg

Tel.: 07141-125 610 • Fax: 07141-125 611 • info@log-x.de