Zeit für KI?

Bots; Roboter; KI
Eine der Fragen des Deutschen Ethikrats: In welchen Bereichen der öffentlichen Verwaltung kann – oder sollte man sogar – KI einsetzen? Foto: Adobe Stock/Diana Vyshniakova

Besser hätte der Zeitpunkt kaum passen können: KI ist in aller Munde – und der Deutsche Ethikrat veröffentlicht seine Stellungnahme zum Themenfeld. Andreas Lob-Hüdepohl über den Schwerpunkt „KI und öffentliche Verwaltung“.

War ChatGPT der Anlass dafür, dass der Deutsche Ethikrat seine Stellungnahme zur KI verfasst hat?

Andreas lob-Hüdepohl: Nein, die aufgeregten Debatten um ChatGPT waren eine unvorhergesehene Begleitmusik. Tatsächlich haben wir knapp drei Jahre mit vielen Anhörungen, Recherchen und Debatten an unserer Stellungnahme gearbeitet. Beauftragt hat uns – was selten vorkommt – das damals amtierende Bundestagspräsidium auf der Basis des Ethikratgesetzes.

Ein Themenschwerpunkt ist die öffentliche Verwaltung – warum ist das für den Deutschen Ethikrat ein wichtiger Kontext?

Lob-Hüdepohl: Natürlich haben wir auch sehr grundsätzlich über das Wesen von KI und vor allem auch über die Unterschiede künstlicher zu menschlicher Intelligenz nachgedacht. Aber Segen oder Fluch von KI erweist sich nur in sehr konkreten Lebens- und Anwendungsgebieten. Wir haben vier Anwendungsfel- der gewählt, die exemplarisch für die große Bandbreite stehen, in denen heute KI zum Einsatz kommt und sehr verschiedene Konsequenzen hat, positive wie negative – und einer dieser Schwer- punkte ist die öffentliche Verwaltung.

Was haben Sie für dieses Themenfeld vor allem in den Blick genommen?

Lob-Hüdepohl: Das Sozialwesen. Hier werden Dienstleistungen erbracht, die unmittelbar große Auswirkungen auf die Lebenslage besonders vulnerabler Menschen haben. Und was noch hinzukommt: Neben den sächlichen und materiellen Hilfen sind besonders die persönlichen Hilfen und Unterstützungsangebote auf das enge Zusammenwirken, also auf Austausch und Gespräche zwischen Fachkräften und Unterstützungsbedürftigen angewiesen. Wenn hier KI in Form von algorithmenbasierten Entscheidungshilfen zur Anwendung kommt, kann das hilfreich sein, aber auch zerstörend wirken. Deshalb eignen sich algorithmische Entscheidungssysteme im Sozialwesen sehr gut als Fallbeispiel.

Einsatzfelder können Entscheidungen über das Kindeswohl sein. Inwiefern kann KI hier helfen ?

Lob-Hüdepohl: Das Jugendamt muss – so will es Paragraph 8a SGB VIII – im Fall von gemeldeten Hinweisen auf eine Kindeswohlgefährdung etwa in einer Familie zuverlässig das Risiko abschätzen. Davon hängt für die Eltern, aber vor allem auch für das betroffene Kind sehr viel ab. Das macht die fallführende Fachkraft auf der Basis bisheriger Erkenntnisse über die Familie und das Kind. Aktuell erfolgt die Abschätzung auf der Basis intuitiv persönlichen Erfahrungswissens. Wir wissen aber aus empirischen Studien, dass mustererkennendstatistische Einschätzungen in der Regel präziser sind. Hier kommt KI ins Spiel, weil sie auf der Basis Tausender Falldokumentationen solche Muster potenzieller Gefährdungen ermittelt und der Fachkraft wichtige Hinweise für ihre Risikoeinschätzung liefern kann.

Sehen Sie hier auch Gefahren?

Lob-Hüdepohl: Ich sehe sie dann, wenn das System mit tendenziösen Datensätzen trainiert wurde; wenn die fallführende Fachkraft allzu grobschlächtig ihren Fall den vorgegebenen Rastern einpasst; und wenn sie dann der Entscheidungsempfehlung der KI blindlings folgt, ohne nochmals die individuelle und möglicherweise sehr spezielle Konstellation des Falles in Augenschein zu nehmen. Sei es, dass ihr die Zeit fehlt, dass sie sich an die Delegation ihrer Entscheidung an die KI längst gewöhnt hat, oder sei es, dass sie sich für eine abweichende Entscheidung nicht mehr rechtfertigen will: Dann ist eine kritische Grenze überschritten. Dann wird aus der algorithmischen Entscheidungshilfe ein automatischer Entscheid. Das muss ausgeschlossen werden – und zwar mindestens im Interesse der betroffenen Familie und des Kindes.

Wann macht es denn Sinn, im Bereich der öffentlichen Verwaltung KI anzuwenden – und wann besser nicht?

Lob-Hüdepohl: Das ist für mich nur schwer zu beurteilen. Ich bin kein Verwaltungsfachmann, sondern nur schlichter Ethiker. Aber vielleicht folgende Faustformel: Je größer das Verwaltungshandeln im engen Sinne personenorientiert verlaufen muss, also auf zwischenmenschliche Kommunikation etwa mit betroffenen Bürgern angewiesen ist – schon allein um eine Aufgabe zu erfassen, die gelöst werden soll –, desto behutsamer sollten KI-gestützte Entscheidungshilfen eingesetzt werden. Bloße Routineabläufe kann man dagegen weitgehend delegieren.

Worauf sollte man hier achten?

Lob-Hüdelpohl: Auch hier muss immer gesichert sein, dass die Entscheidungsprozesse nachvollzogen werden können. Betroffene müssen die Möglichkeit haben, gegen eine Entscheidung Widerspruch einzulegen. Und die Mitarbeiter der Verwaltung müssen immer zur Prüfung in der Lage sein, einem Widerspruch abzuhelfen oder nicht. Niemals darf ihre Antwort sein: Die KI war’s, wir sind nicht verantwortlich.

Der Deutsche Ethikrat verweist auf die beiden grundlegenden Einstellungen, die sich gegenüberstehen: einerseits die Hoffnungen auf eine Rationalisierung und Beschleunigung des Verwaltungshandelns, eine effektivere und kohärentere Datennutzung sowie eine Ausweitung der Einbeziehung wissenschaftlichen und bürgerschaftlichen Sachverstandes; andererseits die Schreckensvision einer sogenannten „Algokratie“, in der autonome Softwaresysteme die staatliche Herrschaft über Menschen ausüben, Bürgerinnen und Bürgern durchgehend Entscheidungen unterworfen sind, deren Algorithmen in- transparent sind und keinen Widerspruch dulden. Wo sehen Sie uns aktuell?

Lob-Hüdepohl: Naja, ich will niemanden zu nahe treten. Aber angesichts des großen Rückstands in der digitalen Ausstattung weiter Teile der öffentlichen Verwaltung sind wir schon aus diesem Grund von einer Algokratie weit entfernt. Sie kann nämlich mit händisch geführten Falldokumentationen oder bloßer Faxübermittlung von Daten nicht viel anfangen. Ich rate also erst einmal zu einer konsequenten digitalen Erfassung von Daten, Prozessdokumentationen und allem, was hier dazugehört. Dann kann man weitersehen, ob man Entscheidungsabläufe KI-gestützt verbessern kann.

Sie haben es anfangs schon erwähnt: Der Deutsche Ethikrat hat sich auch mit grundlegenden Fragen zur KI auseinandergesetzt. Alan Turing hat hier vor 70 Jahren seinen längst legendären Vorschlag gemacht: Eine Maschine darf dann als intelligent gelten, wenn man ihre Antworten nicht von denen eines Menschen unterscheiden kann. Heute bestehen Maschinen den Turing-Test – aber wie intelligent ist künstliche Intelligenz?

Lob-Hüdepohl: Die künstliche Intelligenz ist so intelligent, wie künstliche nur sein kann. Aber sie erreicht eben nur ausschnitthaft, was wir für gewöhnlich mit menschlicher Intelligenz verbinden. Und das ist nicht nur das breite Panorama an Fähigkeiten wie induktives Schließen, räumliche Vorstellungskraft oder assoziatives Gedächtnis. Menschliche Intelligenz umfasst auch emotionale und soziale Fähigkeiten, die spontan und authentisch daherkommen und nicht nur simuliert werden.

Der Turing-Test ist also überholt?

Lob-Hüdepohl: Es ist tatsächlich so: Maschinen bestehen heute sehr schnell den Turing-Test – man kann oft nicht mehr unterscheiden, ob ein Mensch oder eine Maschine etwas ausgeführt oder entschieden hat. Aber Herr Turing hat – und da sehen Sie die große Schwäche seines Tests – niemals seine Testmaschinen genötigt, Gründe für ihre Entscheidungen und Tätigkeiten anzugeben und sie auch bei Widerspruch argumentativ zu verteidigen. Zu solch praktischer Vernunft sind und bleiben Maschinen nicht in der Lage – bei all ihren faszinierenden Fähigkeiten. Es bleibt also für uns Menschen immer noch viel und vor allem Entscheidendes zu tun.

Interview: Sabine Schmidt


Zur Person

Prof. Dr. theol. Andreas Lob-Hüdepohl ist Mitglied des Deutschen Ethikrats. Für die Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ hat er sich insbesondere mit dem Schwerpunkt Öffentliche Verwaltung befasst.

Lob-Hüdepohl; KI; Bots; Roboter; Ethikrat