Künstliche Intelligenz spielt eine entscheidende Rolle in der zukünftigen Gestaltung unserer Gesellschaft. Deutschland soll laut Bundesregierung bis 2025 einer der weltweit führenden Standorte für Künstliche Intelligenz werden. Prof. Dr. phil. habil. Karsten Weber, Leiter des Labors für Technikfolgenabschätzung und angewandte Ethik an der OTH Regensburg spricht über Anwendungsgebiete, Chancen und Risiken der neuen Technologien.
Was bedeutet für Sie das Thema Künstliche Intelligenz und Ethik?
Prof. Karsten Weber: Die Kombination von Künstlicher Intelligenz und Ethik läuft darauf hinaus zu fragen, ob mit dem Einsatz von KI neue Formen der Verantwortung für die Folgen dieses Einsatzes entstehen und wie man damit umgehen kann. Man kann dies sehr deutlich an der Debatte um autonome Fahrzeuge sehen: Wenn ein PKW in Zukunft von einem KI-System vollständig autonom gesteuert wird, wäre es aus ethischer Sicht problematisch, die Insassen des PKWs für Fahrfehler, die jemanden schädigen, zur Verantwortung zu ziehen. Aber wer ist dann verantwortlich? Es ist weder ethisch noch juristisch wirklich klar, wie wir mit dem Thema der Verantwortung und Haftung für Schäden umgehen sollen.
Prof. Dr. phil. habil. Karsten Weber forscht zu den Themen: Cybersecurity, Technikfolgenabschätzung, soziale Kriterien und Folgen technologischen Wandels sowie Anwendungen intelligenter Technologien in Gesundheitssystemen. Er ist unter anderem Leiter des Labors für Technikfolgenabschätzung und angewandte Ethik an der OTH Regensburg.
Was sind aktuelle Anwendungsbeispiele für KI?
Weber: KI beziehungsweise KI-Algorithmen stecken in sehr vielen Produkten des alltäglichen Lebens, ohne dass dies immer deutlich ist. Das liegt auch daran, dass vieles, was lange als KI galt, heute gar nicht mehr unter dieser Bezeichnung diskutiert wird. Das Navi im Auto nutzt Algorithmen zur Bestimmung des kürzesten Weges, die in der Frühzeit der KI-Forschung entwickelt wurden. Die Computergegner in vielen Spielen werden von KI-Algorithmen gesteuert. Software, die erkennt, was man auf einem Bild sieht, nutzt KI-Algorithmen. KI steckt in Fahrerassistenzsystemen oder in Software für die Unterstützung medizinischer Diagnostik, in Sprachassistenten wie Siri oder Cortana. Übersetzungsprogramme wie Google Translate oder DeepL basieren auf KI.

Denkbar wäre, dass KI-Diagnostiksysteme als ein weiteres Werkzeug genutzt werden, um die Verlässlichkeit menschlicher Diagnosen zu erhöhen. Am Ende wird entscheidend sein, ob ein quantifizierbarer Nutzen zu verträglichen Kosten für die medizinische Versorgung entstehen wird.“
Sie haben als Anwendungsbeispiel die medizinische Diagnostik genannt. Stellt der Computer die bessere Diagnose?
Weber: Noch sind Menschen bei der Diagnose von Krankheiten besser und in der Regel auch vielseitiger – KI-Systeme werden bisher stets zur Erkennung eines klar umrissenen Krankheitsbildes entwickelt. Bedenkt man aber die Geschwindigkeit, mit der die KI-Entwicklung abläuft, so ist es durchaus denkbar, dass die diagnostischen Fähigkeiten von KI-Systemen jene von Menschen – wie gesagt sehr spezialisiert – in absehbarer Zeit einholen oder auch übertreffen könnten. Der Konjunktiv ist allerdings wichtig, denn ähnliche Prognosen gab es auch in den 1970er-Jahren in Bezug auf KI-Systeme, die man zu dieser Zeit als Expertensysteme bezeichnet hatte. Eingetroffen sind diese Prognosen jedoch nicht. Vielleicht muss das aber auch gar nicht sein. Auch heute nutzen Ärztinnen und Ärzte verschiedene Werkzeuge und Verfahren, um ihre Diagnosen zu stellen. Denkbar wäre daher, dass KI-Diagnostiksysteme als ein weiteres Werkzeug genutzt werden, um die Verlässlichkeit menschlicher Diagnosen zu erhöhen. Am Ende wird entscheidend sein, ob ein quantifizierbarer Nutzen zu verträglichen Kosten für die medizinische Versorgung entstehen wird.
Ein Thema das, wie von Ihnen bereits angesprochen, immer wieder im öffentlichen Diskurs steht, ist das autonome Fahren. Was sind hier die Herausforderungen?
Weber: Nun, zunächst ist das autonome Fahren selbst eine gewaltige technische Herausforderung, denn die Erkennungs- und Reaktionsleistungen von Menschen im Straßenverkehr technisch zu realisieren, ist keine triviale Angelegenheit. Das kann man schon daran erkennen, dass viele Automobilhersteller ihre recht ambitionierten Ziele revidiert haben und mit Ankündigungen, wann ein Serienfahrzeug vollautonom fahren können wird, zurückhaltender geworden sind. Tatsächlich gibt es sogar Stimmen, die vollautonomes Fahren ohne jeden Eingriff von Menschen als nicht umsetzbar ansehen. Gleichzeitig würden autonome Fahrzeuge unsere Mobilität komplett umkrempeln: „Freude am Fahren“ als Werbeslogan funktioniert nicht mehr so gut, wenn man nicht mehr selbst fährt. Es ist alles andere als klar, ob die Menschen autonome Fahrzeuge akzeptieren und damit nutzen werden – Umfragen zeigen eine erhebliche Skepsis bis Ablehnung. Da es außerdem nicht ausreicht, nur Fahrzeuge mit Technik auszurüsten, sondern eine sehr komplexe Infrastruktur für das autonome Fahren gebaut werden muss, stellen sich volkswirtschaftliche Fragen nach den Investitionen, aber auch nach der Sicherheit dieser Infrastruktur. Außerdem müssen internationale Standards geschaffen werden, wenn autonome Fahrzeuge an der Grenze nicht einfach stehenbleiben sollen.

Da es außerdem nicht ausreicht, nur Fahrzeuge mit Technik auszurüsten, sondern eine sehr komplexe Infrastruktur für das autonome Fahren gebaut werden muss, stellen sich volkswirtschaftliche Fragen nach den Investitionen, aber auch nach der Sicherheit dieser Infrastruktur.“
Ist KI eine Blackbox, bei der die Entwickler selbst nicht mehr wissen, wie ein lernendes System zu einem Ergebnis gelangt?
Weber: Ganz so extrem ist es nicht, da die grundsätzliche Funktionsweise der KI-Systeme ja stets bekannt ist. Aber insbesondere bei Systemen, die mit Maschinellem Lernen arbeiten, sind die Entwickler und Entwicklerinnen oft überrascht, was die Systeme gelernt haben, um beispielsweise bestimmte Muster zu erkennen. Es kann also passieren, dass erst nachträglich klar wird – nämlich wenn ein entsprechendes System unerwartete Ausgaben produziert –, dass beim Lernprozess etwas schiefgelaufen ist. Nachträglich kann dann aber oft heißen, dass die Nutzung des KI-Systems negative Folgen nach sich gezogen hat. Wieder stehen wir dann vor der Frage nach Verantwortung und Haftung. Um an dieser Stelle weiterzukommen, versucht man heute, die Systeme so zu gestalten, dass sie erklären können, warum ein KI-System dieses oder jenes tut.
Verschiedene Institutionen und Organisationen auf nationaler und regionaler Ebene widmen sich dem Thema KI und Ethik:
Deutscher Ethikrat --- Datenethikkommission --- Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ --- Ethikkommissionen von Universitäten --- AlgorithmWatch: gemeinnützige Organisation, die die Auswirkungen algorithmischer Entscheidungsfindungsprozesse auf menschliches Verhalten analysiert und ethische Konflikte aufzeigt.
Wie sieht die Zukunft von KI aus?
Weber: Wenn ich das nur wüsste. Eine Prognose ist wohl nicht allzu gewagt: KI-Algorithmen werden in immer mehr Produkte und Dienstleistungen integriert werden. Ob dies die grundstürzenden Veränderungen haben wird, die zuweilen vorausgesagt werden, vermag ich nicht mit Sicherheit zu sagen. Angesichts der Tatsache, dass es auch renommierten KI-Forschern und -Forscherinnen mulmig wird, wenn diese über die Zukunft der KI nachdenken, ist jedoch Vorsicht geboten. Ich glaube zwar nicht, dass wir irgendwann von Terminatoren aus der Zukunft gejagt werden, das ist Science-Fiction. Um eine Gesellschaft zu erschüttern, reicht allerdings schon deutlich weniger: Schon der Wegfall von 10 Prozent der Arbeitsplätze würde zu erheblichen sozialen Verwerfungen führen, wenn nicht an anderer Stelle neue Arbeitsplätze entstünden. Zudem wird immer deutlicher, dass KI nicht nur im Niedriglohnsektor zu Arbeitsplatzverlusten beitragen könnte, wie dies bei früheren Automatisierungsschüben in der Regel passierte, sondern diesmal auch höher- und hochbezahlte Arbeitsplätze betroffen sein könnten. Außerdem ist zu erwarten, dass sich soziale Beziehungen verändern werden, wenn KI eingesetzt wird, zum Beispiel das Arzt-Patienten-Verhältnis. Wie sich so etwas mittel- bis langfristig auswirkt, ist derzeit völlig unklar. Kurzum: Wir leben in aufregenden Zeiten und es besteht die gesellschaftliche Herausforderung, den kommenden Wandel so zu gestalten, dass er zum Nutzen aller ausfällt.
Das Interview führte Karina Amann.
Ersterscheinung: TRIOLOG 2/Dezember 2019