Ein großes Dankeschön an euch alle für das tolle Feedback zum Newsletter! Wir freuen uns sehr, dass wir mittlerweile fast 400 Leser:innen zählen dürfen 🎉

Falls dir der Newsletter gefällt, leite ihn gerne an weitere KI-Interessierte weiter – oder an jene, die es noch werden möchten. 🙂

KI Use Case der Woche: der KI Finanzanalyst

Einige von euch kennen diesen Anwendungsfall vielleicht schon, weil wir ihn gemeinsam umgesetzt haben – und wir finden ihn nach wie vor extrem spannend!

Warum ist das Thema relevant?
In den nächsten 10 Jahren gehen rund 75 % der Mitarbeitenden in Finanzabteilungen in Pension. Gleichzeitig gibt es nur noch ein Drittel so viele Studienabsolvent:innen im Bereich Finanz und Buchhaltung wie vor 20 Jahren. Der Fachkräftemangel ist real – und hier kann KI einen echten Unterschied machen.

Was kann der KI Finanzanalyst konkret?

  1. Finanzkennzahlen hochladen & interpretieren
    Die KI analysiert Daten auf Basis vergangener Ergebnisse oder Benchmarks.

  2. Intelligente Bewertung
    Abweichungen und Auffälligkeiten werden automatisch erkannt und eingeordnet.

  3. Fragen stellen per Chat
    Einfach mit der KI chatten, um Zusammenhänge zu verstehen oder Detailfragen zu stellen.

  4. Szenarioanalysen
    Base Case, Worst Case oder Best Case? Die KI rechnet verschiedene Zukunftsszenarien durch – z. B. für:

    • GuV-Analysen

    • Investoren-Kalkulationen

    • Projektbewertungen

KI Deep Dive der Woche: Wie verhindert man Halluzinationen?

Künstliche Intelligenz kann beeindruckend sein – doch eines der größten ungelösten Probleme bleibt: Halluzinationen. Damit sind falsche oder frei erfundene Aussagen der KI gemeint, die oft mit überzeugender Sicherheit formuliert werden.

Wie oft halluziniert eine KI wirklich?

Die gute Nachricht: Die Fehlerquoten sind in den letzten Jahren gesunken. Bei einfachen Aufgaben wie Zusammenfassungen oder Recherchen liegen Halluzinationsraten mittlerweile bei rund 6 % – ein deutlicher Fortschritt gegenüber früheren Generationen.

Doch das Bild ist differenziert:

  • KI-Agenten (die mehrere Schritte planen oder Tools nutzen) halluzinieren teils in über 20 % der Fälle.

  • In rechtlichen Kontexten liegt die Fehlerquote laut mehreren Studien sogar bei 55 % und mehr – z. B. durch falsche Gesetzesbezüge oder erfundene Gerichtsurteile.

Das bedeutet: Je komplexer oder risikobehafteter die Aufgabe, desto größer das Halluzinationsrisiko.

Was kann man konkret gegen Halluzinationen tun?

Es gibt inzwischen wirksame Methoden, um die Zuverlässigkeit von KI-Systemen deutlich zu steigern:

1. Grounding mit Retrieval-Augmented Generation (RAG)

RAG erweitert die KI mit externem Wissen: Vor der Antwort greift das Modell auf verifizierte Datenquellen zu. Dadurch entstehen fundierte, nachprüfbare Aussagen – statt reiner Wahrscheinlichkeitsprosa.

2. Automatische Qualitätssicherung

Durch sogenannte Evaluator-Modelle oder Reasoning-Checks werden Antworten automatisch überprüft, bevor sie ausgegeben werden. Diese Systeme erkennen typische Denkfehler oder inhaltliche Widersprüche.

3. Chain-of-Thought & Selbstprüfung

Mithilfe der „Chain-of-Thought“-Technik wird die KI dazu gebracht, ihre Argumentation Schritt für Schritt offen darzulegen. Das fördert logische Konsistenz – und reduziert Fehler deutlich.

4. Unsicherheiten kennzeichnen

Ein Modell muss nicht immer antworten. KIs sollten in der Lage sein, bei unklarer Datenlage Zweifel zu signalisieren oder eine Antwort bewusst zu verweigern – statt ins Blaue zu spekulieren.

5. Feinabstimmung mit menschlichem Feedback (RLHF)

Durch überwachtes Lernen mit menschlicher Rückmeldung kann die KI lernen, zuverlässige Antworten höher zu gewichten als nur „plausible“. Dieser Prozess – Reinforcement Learning from Human Feedback – ist aktuell eine der wirksamsten Maßnahmen gegen Halluzinationen.

Wer also KI professionell einsetzen will, sollte deshalb nicht nur auf Modellqualität achten – sondern auch aktiv Maßnahmen zur Fehlervermeidung integrieren. Ist eine niedrige Fehlerquote für dich wichtig, dann mach dir hier einen Termin aus.

KI News der Woche:

  • In den nächsten Tagen wird OpenAI ChatGPT 5 offiziell launchen.

  • Donald Trump hat seine KI Roadmap veröffentlicht. Die USA gehen einen anderen Weg als Europa und setzen sogar auf eine Reduktion der Vorschriften (bspw. im Bereich der Datencenter).

  • Trotz der hohen Fehlerquote bei rechtlichen Anwendungsfällen, sind Rechtsberufe jene die am stärksten von KI Automatisierungen betroffen sein werden.

Danke für eure Aufmerksamkeit!
Ihr habt Themen, die euch besonders interessieren? Dann klickt gerne auf den Button:

Keep Reading