Künstliche Intelligenz (KI) mit ihren zahlreichen Anwendungsbereichen wird zunehmend zu einem Game Changer. Geschäftsprozesse werden auf den Kopf gestellt, die Beteiligten müssen sich neu aufstellen und sortieren. Das Beispiel innovativer, digitaler Technologien wie das Machine Learning in der Wirtschaftsprüfung zeigt, dass die notwendigen Veränderungen bis an die Wurzeln der Ausbildung reichen können.
Der Einsatz von IT in der Klärung von Wirtschafts- und Steuerrechtsfragen ist keine neue Erfindung. Bereits 1966 haben Heinz Sebiger und weitere Gründungsgenossen in Nürnberg die DATEV gegründet, ein Software-Haus und IT-Dienstleister für Steuerberater, Wirtschaftsprüfer und Rechtsanwälte, aber auch für mittelständische Unternehmen, Kommunen oder Vereine. Drei Jahre später wurde dort ein Rechenzentrum mit vier IBM-Großrechnern eingeweiht. Die Speicherkapazität – die heute in Petabyte, also einer Zahl mit 15 Nullen taxiert wird – lag damals noch im Kilobyte-Bereich. Aber es konnten erstmals Buchhaltungen oder Bilanzen auf Basis von einfachen Algorithmen erstellt werden. Dabei den Rechnern einfach Glauben zu schenken, war jedoch nie ein gültiger Prüfungsansatz. Umso komplexer stellt sich die Situation in Zeiten von Big Data und KI dar. Wie also kann es gelingen, bei einer in hohem Umfang rechnergetriebenen Prüfungsunterstützung Transparenz und Kontrolle zu wahren? Und was sind die richtigen Schlüsse, die aus den Ergebnissen gezogen werden können, welche uns die KI liefert? Der Versuch einer Antwort.
Wie muss ein Nutzer durch Text oder Sprache eine Frage inhaltlich formulieren, um im Big Data-Dschungel auch zum gewünschten beziehungsweise erforderlichen Ergebnis zu kommen? Woher weiß der Computer, was der Nutzer exakt meint?
KI und die Lücke zwischen Menschen und Maschine
Heute stehen im Internet riesige Steuerrechtsdatenbanken zur Verfügung, um notwendige Recherchen durchführen zu können. Die Leistungsfähigkeit unserer Computer und der Ausbau der datentechnischen Infrastruktur machen es möglich. Allerdings tut sich da an der Mensch-Computer-Schnittstelle (noch) ein Problem auf: Wie muss ein Nutzer durch Text oder Sprache eine Frage inhaltlich formulieren, um im Big Data-Dschungel auch zum gewünschten beziehungsweise erforderlichen Ergebnis zu kommen? Was sich hier offenbart, bezeichnet die Informatik als „Semantische Lücke“. Woher weiß der Computer, was der Nutzer exakt meint?
KI und Machine Learning können „semantische Lücke“ überbrücken
Der Supercomputer Watson sowie Sprachassistenten wie Siri und Alexa sind in dieser Hinsicht erste Vorläufer einer hochspannenden Entwicklung. Noch ist es für diese Helfer schwierig, die besagte Lücke zwischen Syntax und Semantik vollständig zu überbrücken. Mit Künstlicher Intelligenz und Verfahren wie Machine Learning wird aber genau diese Lücke in den nächsten Jahren nach und nach geschlossen werden. Prof. Dr. Siegfried Handschuh, Professor für Data Science an der Universität St. Gallen, hat mit seinem Team bereits einen Mechanismus für Gelegenheitsbenutzer von Datenbanken entwickelt, um natürlich Sprachabfragen über verknüpfte Datenvokabulare und Datensätze zu ermöglichen.
Ohne Zweifel bedarf es für die verantwortungsbewusste Nutzung von KI-getriebenen Steuerprüfungssystemen eines tiefergehenden Verständnisses der Funktion, der Rahmenbedingungen sowie der Möglichkeiten und Grenzen solcher Systeme.
KI verstehen und richtig nutzen
Die Digitalisierung verändert das Spiel nicht nur in den Wirtschaftsprüfungskanzleien, sie fordert eine Neuaufstellung auch schon in der Ausbildung. Ohne Zweifel bedarf es für die verantwortungsbewusste Nutzung von KI-getriebenen Steuerprüfungssystemen eines tiefergehenden Verständnisses der Funktion, der Rahmenbedingungen sowie der Möglichkeiten und Grenzen solcher Systeme. Insofern scheint es dringend geboten, dass Mathematik und Statistik, insbesondere aber die Informatik viel stärker als bisher in die Hochschulausbildung wie auch in die Fort- und Weiterbildung von Betriebswirten einfließen, die sich mit dem Thema Unternehmensprüfung befassen.
KI entscheidet – nicht
Künstliche Intelligenz unterstützt menschliches Denken. In Teilbereichen wie etwa der Mustererkennung ist sie dem Menschen durchaus überlegen. In anderen, etwa der Differenzierung, Klassifikation, Erkennung und Interpretation von Texten, wird sie kontinuierlich besser. Allerdings wird die KI dem Menschen in absehbarer Zeit nicht die Verantwortung für Entscheidungen abnehmen. Und das soll sie auch nicht.
Prof. Dr. Gerd Gigerenzer, Direktor des Harding-Zentrums für Risikokompetenz am Max-Planck-Institut für Bildungsforschung in Berlin, hat die aktuelle Situation im Umgang mit KI bei der Bewertung von Wirtschaftsdaten sehr anschaulich betrieben: „Die Menschheit hat seit Jahrhunderten Informationen über die Bewegung der Himmelskörper gesammelt und zusammengetragen. Wir verfügen über Big Data der Astronomie, zur Vorhersage wo sich wann welcher Himmelskörper befinden wird. Dies können wir nicht nur wegen der tollen Algorithmen, sondern weil sich an der Konstellation und den Umlaufbahnen nicht viel geändert hat. Die Vorhersage von Aktien- und Wechselkursen dagegen grenzt an Astrologie und sie erzeugt Illusionen der Gewissheit.“
Besonnenheit statt Leichtsinn im Umgang mit KI
KI erzeugt also „Illusionen der Gewissheit“ in einer Welt voller Unsicherheiten. Es bleibt als Resümee, dass wir auch gemeinsam mit Künstlicher Intelligenz die Optionen, ob ein Unternehmen insolvent wird oder zu einem Unicorn emporsteigt, nicht final berechnen können. Und natürlich dürfen wir bei allem Fortschritt nicht leichtsinnig bereit sein, Verantwortung an Algorithmen abzugeben. Selbstverständlich macht es Sinn, Risiken mit Hilfe aller zu Verfügung stehenden Technologien zu berechnen. Interpretieren müssen wir die Ergebnisse im oft komplexen Kontext aber selbst. Prof. Dr. Harald Lesch hat auf die Frage, warum die Menschheit so erfolgreich sei, geantwortet: „Weil sie sich empor geirrt hat.“ Sich einen Irrtum einzugestehen, setzt allerdings voraus, dass wir erkennen, was zu diesem Irrtum geführt hat. Algorithmen, die nicht transparent sind, die wir nicht mehr verstehen, kommen demnach eher einem Glaubensbekenntnis nahe denn einer Prüfung.
Autoren: Prof. Dr. Georg Herde und Dr. Jörg Kunz (THD)
Ersterscheinung: TRIOLOG 2/Dezember 2019