Getting your Trinity Audio player ready...
|
Während die meisten KI-Systeme auf Schnelligkeit setzen, geht Thomson Reuters mit seiner Deep Research Plattform einen anderen Weg: 10 Minuten Wartezeit für präzise juristische Recherchen mit direkten Quellenbezügen aus 20 Milliarden Dokumenten. Ein System, das Robert Alexys Theorie der rationalen Rechtsbegründung in digitale Praxis übersetzt und zeigt, wie KI den strengen Anforderungen der Rechtspraxis gerecht werden kann.
In einer Zeit, in der künstliche Intelligenz meist mit Geschwindigkeit und Effizienz gleichgesetzt wird, wagt Thomson Reuters mit seiner Deep Research Plattform ein bemerkenswertes Experiment: Was passiert, wenn man KI bewusst verlangsamt, um sie präziser zu machen? Die Antwort könnte die Art und Weise revolutionieren, wie Juristen ihre wichtigste Arbeit verrichten – die Recherche.
Das Problem der juristischen Präzision
Juristische Arbeit duldet keine Ungenauigkeiten. Ein fehlerhaftes Zitat, eine übersehene Gesetzesänderung oder eine falsch interpretierte Rechtsprechung können katastrophale Folgen haben – von verlorenen Prozessen bis hin zu Haftungsansprüchen. Hier liegt das fundamentale Problem herkömmlicher KI-Systeme: Ihre Neigung zu “Halluzinationen”, also der Erfindung plausibler, aber falscher Fakten.
Während Retrieval-Augmented Generation (RAG)-Systeme bereits einen Schritt in die richtige Richtung darstellen, indem sie Antworten auf Datenbanken stützen, geht Thomson Reuters mit Deep Research einen entscheidenden Schritt weiter. Das System verzichtet bewusst auf Schnelligkeit zugunsten einer mehrstufigen, iterativen Herangehensweise, die der Arbeitsweise erfahrener Juristen nachempfunden ist.
Qualität durch bewusste Entschleunigung
Der vielleicht radikalste Aspekt von Deep Research ist seine Philosophie der bewussten Entschleunigung. Während ChatGPT und ähnliche Tools in Sekunden antworten, nimmt sich Deep Research zehn Minuten Zeit – mit Optionen für noch längere Recherchen in der Entwicklung. Diese Zeit wird nicht verschwendet, sondern für einen systematischen Prozess genutzt, der Hypothesen entwickelt, prüft und verfeinert.
Das System durchkämmt dabei einen kuratierten Datensatz von über 20 Milliarden Dokumenten – aktuelle Gesetze, Gerichtsurteile, Verwaltungsentscheidungen und redaktionell aufbereitete Sekundärquellen. Entscheidend ist dabei nicht nur die schiere Menge, sondern die Qualität: Ein Team von Anwälten aktualisiert und kuratiert diese Sammlung kontinuierlich, was sie fundamental von KI-Modellen unterscheidet, die auf allgemeinen Webdaten trainiert wurden.
Beide Seiten der Medaille
Ein besonders elegantes Merkmal von Deep Resear…