Die Frage nach der Wahrheit von Axiomen gehört zu den grundlegendsten und zugleich am stärksten diskutierten Themen in der Philosophie der Mathematik. Axiome bilden die Ausgangspunkte eines deduktiven Systems, aus denen durch logisch-deduktive Methoden, die bereits bei den alten Griechen ihren Ursprung haben, neues Wissen gewonnen wird. Dabei sind Axiome und Postulate grundsätzliche Annahmen, die ohne Beweis akzeptiert werden, denn ohne eine solche Basis lässt sich nichts herleiten. Der logische Aufbau der Mathematik beruht darauf, dass alle weiteren Aussagen (Theoreme) aus diesen Grundannahmen zwingend folgen.

Im klassischen Verständnis, wie es etwa Aristoteles in seinen „Analytiken“ dargelegt hat, dienen Axiome als gemeinsame Grundlagen mehrerer Wissenschaften, während Postulate sich auf die spezifischen Voraussetzungen einer einzelnen Wissenschaft beziehen. Die Gültigkeit dieser Postulate wird durch Erfahrung bestätigt, sodass der Lernprozess eine gewisse Überzeugung von deren Wahrheit voraussetzt, um eine erfolgreiche Vermittlung der Wissenschaft zu ermöglichen. Dieses klassische Konzept zeigt sich exemplarisch in Euklids „Elementen“, wo eine Reihe von Postulaten – basierend auf alltäglichen geometrischen Einsichten – aufgelistet wird, zum Beispiel die Möglichkeit, eine gerade Linie zwischen zwei Punkten zu ziehen oder einen Kreis mit beliebigem Mittelpunkt und Radius zu zeichnen.

Die Veränderung des Axiombegriffs spiegelt sich besonders in der Entwicklung der Geometrie wider. Während die alten Griechen Geometrie als eine unter vielen Naturwissenschaften betrachteten und ihre Sätze auf Erfahrungswahrheiten gründeten, verschob sich die Perspektive im 19. Jahrhundert fundamental. Durch Variationen im Axiomensystem – speziell durch Modifikation des Parallelpostulats – entstanden alternative Geometrien, die heute als nicht-euklidische Geometrien bekannt sind. Diese Entwicklung begann mit Carl Friedrich Gauss und Ferdinand Karl Schweikart, deren Ideen jedoch erst später, durch Lobatschewski und János Bolyai, öffentlich gemacht wurden. Beide veröffentlichten unabhängig voneinander grundlegende Arbeiten zur hyperbolischen Geometrie, die das Parallelpostulat negierten und somit die Grundlage einer neuen geometrischen Welt eröffneten.

Bolyai erkannte bereits, dass die Entscheidung, ob die physikalische Welt euklidisch oder nicht-euklidisch ist, nicht allein durch mathematische Überlegungen getroffen werden kann, sondern eine Aufgabe der Naturwissenschaften bleibt. Dies betont die Grenze zwischen mathematischem System und seiner Interpretation in der Realität. Im weiteren Verlauf etablierte Bernhard Riemann mit seiner „Riemannschen Geometrie“ einen Rahmen, der die Beschreibung von Räumen beliebiger Dimensionen mit gekrümmten Metriken ermöglicht. Damit wurde nicht-euklidische Geometrie in einen umfassenden, vielgestaltigen Kontext eingebettet, der heute als Grundlage für die moderne Differentialgeometrie gilt.

Die axiomatische Beschreibung der euklidischen Geometrie wurde ebenfalls weiterentwickelt. Euklids ursprüngliche fünf Postulate genügen nicht, da sie implizit mehrere nicht näher definierte Annahmen enthalten. David Hilbert formulierte ein umfassendes Axiomensystem mit etwa zwanzig Axiomen, das die Basis für eine konsistente Begründung der klassischen Geometrie bildet. Unabhängig von der Wahl der Axiomensysteme ist das Parallelenpostulat – in einer seiner zahlreichen äquivalenten Formen – eine zentrale Annahme. Wird dieses Postulat entfernt oder durch seine Negation ersetzt, entsteht ein neues geometrisches System: die absolute Geometrie oder nicht-euklidische Geometrie.

Die Negation des Parallelenpostulats, etwa in der Form des Playfair-Axioms, führt zu zwei möglichen Szenarien: Entweder existieren mehrere Parallelen durch einen Punkt zu einer gegebenen Geraden oder gar keine. Ersteres entspricht der hyperbolischen Geometrie, letzteres der elliptischen Geometrie. Diese unterschiedlichen Ansätze zeigen, wie variabel die Struktur mathematischer Systeme sein kann, wenn man von alternativen Grundannahmen ausgeht. Die Erkenntnis, dass Mathematik nicht zwingend auf einem einzigen, als „wahr“ angenommenen Axiomensystem beruhen muss, eröffnet eine Vielzahl von mathematischen Welten, deren Gültigkeit und Anwendbarkeit von der gewählten Grundannahme abhängt.

Neben den formalen Überlegungen ist wichtig zu verstehen, dass Axiome nicht nur als willkürliche Regeln angesehen werden dürfen, sondern als notwendige Voraussetzungen für eine kohärente Theorie. Sie sind Ausgangspunkte, deren Auswahl die Art und Weise bestimmt, wie die Mathematik strukturiert ist und welche Aussagen als gültig gelten. Die historische Entwicklung der Geometrie verdeutlicht zudem die Wechselwirkung zwischen mathematischer Abstraktion und physikalischer Wirklichkeit, was zeigt, dass Mathematik als Wissenschaft eine doppelte Funktion hat: Sie schafft formale Systeme mit innerer Logik und modelliert gleichzeitig die Welt, deren Beschaffenheit mit den Mitteln der Mathematik untersucht wird.

Eine vertiefte Auseinandersetzung mit den Grundlagen der Axiome lehrt den Leser auch, dass mathematische Wahrheiten stets in einem Rahmen von Annahmen bestehen, die selbst nicht beweisbar sind. Dies führt zu einem Bewusstsein für die Relativität und die Grenzen mathematischen Wissens und öffnet den Blick für die Bedeutung von Interpretationen, Modellen und Anwendungen außerhalb des rein Formalen.

Wie beeinflussen Emotionen die gesellschaftliche Wahrnehmung von Künstlicher Intelligenz?

Die Auseinandersetzung mit den aktuellen Entwicklungen im Bereich der Künstlichen Intelligenz wird zunehmend von emotional aufgeladenen Debatten geprägt, deren Grundlage oft weniger im Wissen als vielmehr in Spekulation, Wunschdenken und Furcht liegt. Diese Tendenz ist weder neu noch überraschend. Bereits in den 1980er Jahren entbrannte eine vergleichbare Diskussion rund um das Thema Computerschach. Die Faszination wuchs bis zu jenem Moment im Jahr 1996, als Garri Kasparow, der damalige Weltmeister, eine Partie gegen das IBM-System Deep Blue verlor. Was folgte, war ein kurzer öffentlicher Sturm an Kommentaren, danach jedoch setzte eine sachliche, technologische Weiterentwicklung ein – frei von dramatisierten Projektionen.

Ein ähnliches Muster wiederholt sich gegenwärtig im Zusammenhang mit der Entwicklung autonomer Fahrzeuge. Obwohl Roboterfahrzeuge bereits seit Jahren in spezialisierten Bereichen eingesetzt werden, ohne nennenswerte Zwischenfälle zu verursachen, konzentriert sich die öffentliche Wahrnehmung vor allem auf hypothetische Gefahren und Extremszenarien. Die Diskussionen werden dominiert von Zukunftsängsten, von der Angst vor Kontrollverlust, von der Sorge um ethische Dilemmata, während die realen technologischen Fortschritte oft unbeachtet bleiben.

Besonders auffällig ist dies im aktuellen Diskurs über Sprachmodelle wie GPT-4. Die Faszination über die Fähigkeit dieser Systeme, komplexe Texte zu erzeugen und scheinbar „intelligent“ zu antworten, wird fast vollständig überlagert durch eine Welle der Kritik: Urheberrechtsverletzungen, Plagiate, Faktenverzerrungen, potenzielle Desinformation und die angebliche Einschränkung menschlicher Kreativität dominieren die öffentliche Debatte. Rasch werden Forderungen nach Regulierung, gesetzlichen Verboten und Beschränkungen laut – als handle es sich bei diesen Technologien um unkontrollierbare Gefahrenquellen.

Dabei ist der Missbrauch technischer Innovation kein neues Phänomen. Jede neue Technologie – sei es das Buchdruckverfahren, der Film, das Fernsehen oder das Internet – wurde zunächst mit Skepsis betrachtet, als Bedrohung gedeutet, häufig moralisch verurteilt. Die Möglichkeit, technische Mittel auch negativ zu nutzen, liegt jedoch nicht in der Natur der Technologie selbst, sondern im Verhalten der Menschen. Es ist daher kaum zielführend, den Fortschritt zu dämonisieren, anstatt ihn differenziert zu betrachten.

Ein nicht zu unterschätzender Faktor in diesem Prozess ist die Rolle der Medien. Diese erzeugen einen permanenten Strom widersprüchlicher Meinungen und Szenarien, die von der totalen Auslöschung der Menschheit durch Superintelligenzen bis hin zur utopischen Besiedelung ferner Planeten durch von KI gesteuerte Systeme reichen. Für Menschen ohne fundierte Vorkenntnisse in Informatik oder Systemtheorie ist diese Flut an Informationen nicht nur verwirrend, sondern auch beängstigend. Die emotionale Reaktion auf diese Überforderung ist nachvollziehbar, aber nicht hilfreich. Statt in Alarmismus zu verfallen, ist es notwendig, den Zugang zu Wissen und Verständnis zu erleichtern – und genau das ist eines der Hauptanliegen dieser Buchreihe.

Nur durch informierte Auseinandersetzung lässt sich der Boden bereiten für eine gesellschaftliche Integration von KI-Systemen, die sowohl Chancen als auch Risiken klar benennt. Das Ziel besteht darin, jedem Menschen – unabhängig vom beruflichen oder akademischen Hintergrund – die Möglichkeit zu geben, Entwicklungen nachvollziehen zu können, mitzureden und sich im eigenen beruflichen Umfeld fundiert weiterzubilden. Dazu bedarf es keiner Spezialisierung, sondern der Bereitschaft, sich in den Prozess der Wissensaneignung einzubringen.

Für vertieftes Verständnis sind zusätzliche Lehrmaterialien, spezialisierte Fachliteratur und praktische Kurse unabdingbar. Viele dieser Ressourcen stehen heute online zur Verfügung und erlauben es, eigene Erfahrungen mit KI-Systemen zu sammeln. Solche praktische Auseinandersetzung ist nicht nur lehrreich, sondern auch notwendig, um emotionale Reaktionen in rationale Urteilsfähigkeit zu überführen.

Was zusätzlich bedacht werden sollte: Technologische Entwicklungen geschehen nicht im luftleeren Raum. Sie sind eingebettet in gesellschaftliche, wirtschaftliche und politische Kontexte, in denen Machtverhältnisse, Interessen und Normen eine zentrale Rolle spielen. Wer über Künstliche Intelligenz spricht, sollte daher nicht nur Algorithmen, Daten und Systeme im Blick haben, sondern auch die Institutionen, die sie finanzieren, regulieren oder kontrollieren. Ebenso ist das Bildungssystem gefordert: Eine kritische Technologiebildung muss früh ansetzen, um zukünftige Generationen zu mündigen Akteuren im digitalen Wandel zu machen.

Wie die Ideen von John von Neumann und Norbert Wiener die Entwicklung der Künstlichen Intelligenz prägten

John von Neumann und Norbert Wiener gehören zu den herausragenden Wissenschaftlern, deren Arbeiten das Fundament für die heutige Künstliche Intelligenz (KI) gelegt haben. Beide trugen maßgeblich zur Entwicklung der modernen Mathematik, Kybernetik und Informationstheorie bei und beeinflussten damit nicht nur die Technologie, sondern auch die Art und Weise, wie wir heute über Systeme nachdenken, die Wissen verarbeiten und Entscheidungen treffen.

John von Neumann erlangte große Bekanntheit durch seine Arbeiten zur Quantenmechanik und seine unermüdliche Forschung in verschiedenen Bereichen der Mathematik. Ab 1933 war er Professor für Mathematik am Institute for Advanced Study in Princeton, wo er mit Größen wie Albert Einstein und Hermann Weyl zusammenarbeitete. Nachdem Hitler an die Macht kam, emigrierte er wie viele seiner Kollegen in die USA. Bereits 1928 entwickelte von Neumann, inspiriert durch ein Essay des Mathematikers Émile Borel, die Grundlage für die spätere Spieltheorie. Diese Theorie, die er zusammen mit dem Ökonom Oskar Morgenstern in ihrem Werk Theory of Games and Economic Behavior (1944) ausarbeitete, revolutionierte die wirtschaftswissenschaftliche und strategische Analyse. Die Spieltheorie beschreibt und analysiert Entscheidungsprozesse in Konfliktsituationen, in denen die Beteiligten unterschiedliche Ziele verfolgen, wobei die Gesamtsumme von Gewinnen und Verlusten in "Nullsummenspielen" immer null ergibt.

Die Grundannahmen der Spieltheorie, insbesondere die Begriffe der vollständigen Information, der perfekten Information und des perfekten Gedächtnisses, sind entscheidend, um zu verstehen, wie Entscheidungen getroffen werden, wenn verschiedene Akteure miteinander interagieren. In "Nullsummenspielen" beispielsweise sind die Spieler sich der Regeln und ihrer Handlungen der anderen bewusst, was zu einer maximalen Effizienz und Rationalität führt. In realen Anwendungen, wie in der Wirtschaft oder der Politik, sind jedoch vollständige Information und perfektes Gedächtnis selten gegeben, was die Analyse komplexer und weniger vorhersehbar macht.

Parallel zu von Neumann entwickelte Norbert Wiener die Kybernetik, ein interdisziplinäres Gebiet, das sich mit der Steuerung und Kommunikation in Maschinen und lebenden Organismen beschäftigt. In seinem 1948 erschienenen Werk Cybernetics: Or Control and Communication in the Animal and the Machine legte Wiener die theoretischen Grundlagen für die spätere Entwicklung der Automatisierung und der Künstlichen Intelligenz. Besonders bedeutsam war seine Einführung des Begriffs "Feedback", der sowohl in biologischen Systemen, etwa im menschlichen Gehirn, als auch in technischen Systemen, wie Computern und Maschinen, eine zentrale Rolle spielt. Wiener zeigte, dass die Verarbeitung von Informationen und die Steuerung durch Rückkopplung (Feedback) sowohl für den Körper als auch für Maschinen von fundamentaler Bedeutung ist.

Wiener argumentierte, dass ein idealer Computer, ähnlich wie das menschliche Gehirn, alle Daten zu Beginn der Berechnung einnehmen und so wenig wie möglich von menschlicher Eingabe während des Prozesses abhängen sollte. Diese Vorstellung vom Dualsystem, bei dem die Informationsverarbeitung binär erfolgt (0 und 1), war zur damaligen Zeit revolutionär und bildete einen theoretischen Rahmen, auf dem die moderne Computertechnik aufbaute. Wiener beschäftigte sich auch mit der Frage, wie das Gehirn und Maschinen Fehler vermeiden, was zur Entwicklung von Fehlerkorrekturmechanismen und Selbstregulierungssystemen in der Technik führte.

Ein weiteres bemerkenswertes Thema in Wieners Arbeit war seine Auseinandersetzung mit der Psychopathologie und den Gefahren von unkontrollierter Technologie. Bereits 1961 warnte er vor den möglichen Gefahren von Maschinen, die aus eigener Intelligenz lernen könnten. In einem Kontext, der an heutige Diskussionen über Künstliche Intelligenz erinnert, stellte er fest, dass es nicht immer möglich ist, eine Maschine auszuschalten, wenn sie eine kritische Grenze überschreitet. Er betonte, dass Maschinen, die von Menschen programmiert werden, in der Lage sein könnten, ihre eigenen Nachfolger zu schaffen, die über ein höheres Maß an Intelligenz verfügen als ihre Vorgänger. Diese Voraussicht, dass Maschinen sich selbst verbessern könnten, ist heute eine der zentralen Fragen im Bereich der KI und der Forschung zu selbstlernenden Algorithmen.

Neben diesen theoretischen Grundlagen trugen auch die Ideen von Claude Shannon zur Entstehung der Informationstheorie bei, die eine wichtige Rolle in der modernen Informatik und der Entwicklung von KI-Systemen spielt. Shannon entwickelte die mathematische Grundlage für die Messung und Übertragung von Information, ein Konzept, das für die effiziente Verarbeitung und Speicherung von Daten unerlässlich ist. In einer Zeit, in der Computertechnik noch in den Kinderschuhen steckte, legte Shannon mit seiner Informationstheorie den Grundstein für die schnelle Entwicklung von Kommunikationssystemen, die heutzutage in jedem KI-Algorithmus verwendet werden.

Wichtig ist, dass die Arbeiten von Wiener, von Neumann und Shannon nicht isoliert betrachtet werden können. Sie stehen in einem engen Zusammenhang mit den sozialen und technologischen Entwicklungen ihrer Zeit und bieten wichtige Einsichten in die heutigen Herausforderungen im Umgang mit künstlicher Intelligenz. Die Art und Weise, wie Maschinen heute lernen, Entscheidungen treffen und sich selbstständig weiterentwickeln, basiert auf den Prinzipien, die von diesen Wissenschaftlern formuliert wurden. Gleichzeitig ist es unerlässlich, die ethischen und sozialen Implikationen dieser Entwicklungen zu verstehen und zu hinterfragen.

Die Frage, wie weit die Entwicklung der KI noch gehen wird, bleibt ebenso relevant wie zu Wieners und von Neumanns Zeiten. Die heutigen Diskussionen über die Kontrolle und die ethischen Richtlinien für den Einsatz von KI beruhen auf den von diesen Wissenschaftlern formulierten Konzepten. Eine kritische Auseinandersetzung mit den Mechanismen und den potenziellen Risiken von KI ist daher ebenso notwendig wie die Anerkennung der bahnbrechenden Entdeckungen, die diese Denker gemacht haben.

Wie entwickelte sich die Kunst der Anamorphose und welche Bedeutung hat sie heute?

Die Kunst der Anamorphose, eine Technik, die auf verzerrten Perspektiven basiert und erst aus einem bestimmten Blickwinkel ein kohärentes Bild zeigt, hat im Laufe der Jahrhunderte eine bemerkenswerte Entwicklung erfahren. Ursprünglich im Barock populär, wurden anamorphe Darstellungen häufig genutzt, um gemalte und reale architektonische Elemente zu verschmelzen. Ein herausragendes Beispiel dafür ist die Deckenmalerei von Andrea Pozzo in der Kirche St. Ignatius in Rom, bei der die flache Decke durch eine illusionistische Malerei wie eine echte Kuppel wirkt – allerdings nur von genau einem bestimmten Standort aus betrachtet.

Im 18. und 19. Jahrhundert wandelte sich die Anamorphose zunehmend zu einer Unterhaltungsform. Renaissance-Radierungen wurden neu aufgelegt, während politische, obszöne und volkstümliche Themen in den Vordergrund rückten. Edgar Allan Poes Erzählung „Ligeia“ illustriert dabei die Wirkung verzerrter Formen, die sich je nach Blickwinkel verändern und so den Betrachter in eine surreale Welt entführen. Diese Popularisierung hatte später entscheidenden Einfluss auf die Surrealisten, die die Anamorphose als ästhetisches und konzeptuelles Mittel wiederentdeckten.

Im 20. Jahrhundert wurde die Anamorphose erneut für unterschiedlichste Zwecke eingesetzt: Arthur Mole schuf während des Ersten Weltkriegs patriotische Großbilder, bei denen sich zusammengesetzte Menschengruppen erst aus der Entfernung zu einem erkennbaren Bild formten. Salvador Dalí integrierte extreme Verkürzungen und anamorphe Verzerrungen in seine Werke und realisierte mit dem „Mae West Lips Sofa“ eine dreidimensionale, perspektivische Illusion, die nur von einem bestimmten Standpunkt aus als das Gesicht der Schauspielerin erkennbar ist.

Ein weiteres faszinierendes Phänomen des 20. Jahrhunderts ist die Entstehung sogenannter unmöglicher Objekte, wie die Penrose-Dreiecke oder der Necker-Würfel. Obwohl diese Figuren in der Realität nicht existieren können, erzeugt die Anamorphose die Illusion ihrer Existenz – eine visuelle Paradoxie, die von Künstlern wie M.C. Escher und Mathematikern wie Roger Penrose bekannt gemacht wurde.

Der amerikanische Wissenschaftler Adelbert Ames Jr. erfand 1946 den sogenannten Ames-Raum, der durch verzerrte Proportionen eine perspektivische Täuschung erzeugt. Aus einer definierten Perspektive erscheint der Raum normal, während aus anderen Blickwinkeln die ungewöhnlichen Formen und Größenverhältnisse sichtbar werden. Diese Technik wird seitdem häufig in der Filmindustrie für Spezialeffekte genutzt, wie beispielhaft bei den „Hobbit“-Filmen, in denen mithilfe der gezielten Verzerrung Figuren unterschiedlich groß erscheinen, ohne digitale Effekte einzusetzen.

Auch in der modernen Bildprojektion spielen anamorphe Verfahren eine bedeutende Rolle. Breite Bildformate wie Cinemascope oder IMAX nutzen anamorphe Verzerrungen, um aus schmalen Filmstreifen ein breites Bild auf der Leinwand oder einer kuppelförmigen Fläche zu erzeugen. Im Alltag begegnen wir der Anamorphose zudem etwa bei Straßenbeschriftungen oder Werbeanzeigen in Sportstadien, wo verzerrte Buchstaben aus einem bestimmten Blickwinkel korrekt lesbar erscheinen.

Neben der künstlerischen und unterhaltenden Nutzung sind auch technische Anwendungen im Bereich der Bildverarbeitung und Informationssicherheit hervorzuheben. Steganografie, eine Methode, Informationen so in Bildern zu verstecken, dass Außenstehende nichts Verdächtiges erkennen, kombiniert häufig mathematische Funktionen und digitale Bildmanipulation. Dabei werden Botschaften pixelweise in ein Trägerbild eingefügt und können am Zielort wieder entschlüsselt werden. Diese Praxis unterscheidet sich von der reinen Kryptografie durch ihr Ziel, die Existenz der Nachricht selbst zu verbergen.

Weiterhin hat die digitale Bildverarbeitung heute eine enorme Bedeutung für Wissenschaft, Kunst und Strafverfolgung. Mustererkennung, Gesichtserkennung und Fingerabdruckvergleiche sind Standardverfahren in der Polizei- und Sicherheitsarbeit. Designer und Künstler profitieren davon, dass sie Entwürfe am Bildschirm bearbeiten können, statt von vorn zu beginnen, was die kreative Arbeit erheblich erleichtert.

Zusätzlich zu den beschriebenen Aspekten ist zu beachten, dass anamorphe Techniken stets mit einer bewussten Manipulation der Wahrnehmung spielen. Die Kunst des Sehens wird hier hinterfragt, indem gewohnte Perspektiven aufgelöst und neu geordnet werden. Dies eröffnet nicht nur künstlerische, sondern auch philosophische und psychologische Fragestellungen zur Wahrnehmung von Realität und Illusion. Der Betrachter wird eingeladen, seine Position und seinen Blickwinkel als Teil der Bildwahrnehmung zu reflektieren. Diese Dimension macht die Anamorphose zu einem zeitlosen und vielschichtigen Phänomen, das weit über bloße optische Täuschungen hinausgeht.

Wie Künstliche Intelligenz das Rechtssystem Verändern Wird: Chancen und Herausforderungen

Nicht alle rechtlichen Fragen zur Anwendung von Deep-Learning-Systemen sind bisher geklärt. Erst im April dieses Jahres veröffentlichte die Europäische Kommission einen Entwurf für eine Verordnung, die harmonisierte Regeln für Künstliche Intelligenz (KI) festlegt. Die Bundesrechtsanwaltskammer bezeichnet dies als einen ersten wichtigen Schritt, weist jedoch auch auf einen weiteren Klärungsbedarf hin. Auf dem Rechtsmarkt schwelt unterdessen weiter der Streit zwischen Legal-Tech-Unternehmen und den Anwaltskammern, insbesondere darüber, dass Beratungsleistungen nur von Rechtsanwälten erbracht werden dürfen, um unqualifizierte Rechtsberatung zu vermeiden. Dass dies nicht immer eindeutig ist, zeigt das kürzlich gefällte Urteil des Bundesgerichtshofs zu den Online-Vertragsangeboten von Smartlaw. Der BGH entschied zugunsten des Anbieters, während die klagende Anwaltskammer weiterhin ein Risiko für falsche Beratung von Verbrauchern sieht. Auch wenn dieses Urteil einen kleinen Sieg für die Anbieter automatisierter Vertragsangebote darstellt, machte der BGH deutlich, dass es keinen Ersatz für eine anwaltliche Beratung darstellt. Selbst wenn einige Legal-Tech-Unternehmen in Zukunft konsolidiert werden oder teilweise verschwinden, bringt dies Bewegung auf den Markt. Langfristig werden KI und Algorithmen in bestimmten Rechtsfragen zweifellos mit Anwaltskanzleien konkurrieren können, jedoch werden sie diese nicht ersetzen.

Es geht vielmehr darum, die Entwicklung von KI im rechtlichen Bereich aktiv zu gestalten – sowohl technisch, ethisch, regulatorisch als auch kulturell. Besonders während der Corona-Krise wurden viele Prozesse im Rechtssektor digitalisiert, die ansonsten deutlich länger gebraucht hätten. Dieser Effekt muss weiter genutzt werden, denn letztlich wird es auf eine Kombination von Menschen und Maschinen hinauslaufen, die sich gegenseitig ergänzen. Um dieses Ziel zu erreichen, sind insbesondere Experten und Fachleute in diesem Bereich notwendig, um Kanzleien auf diesem Weg zu unterstützen. Gut ausgebildetes Personal und fundiertes Know-how werden auch in Zukunft die Treiber der Innovation bleiben – nur die Art und Weise, wie dies genutzt wird, wird sich ändern.

Ein Beispiel für die zunehmende Integration von KI in den Rechtssektor ist LawBot, ein Chatbot für rechtliche Fragestellungen, der von einer Gruppe von Jurastudenten der Universität Cambridge ins Leben gerufen wurde. LawBot-X, die neue Version des Systems, erweitert seine Funktionen, indem es in sieben Ländern eingeführt wird und eine Vorhersagefunktion für den Ausgang von Rechtsfällen hinzufügt, die es ermöglicht, die Erfolgschancen eines analysierten Rechtsfalls zu schätzen. Der CEO von LawBot, Ludwig Bull, gibt an, dass das System derzeit den Ausgang eines Rechtsstreits mit einer Genauigkeit von 71 % vorhersagen kann. "Wir sind stolz darauf, diesen Service der Öffentlichkeit zur Verfügung zu stellen. LawBot-X ist sowohl für die Grundlagenforschung zur Anwendung von KI in der Rechtsberatung als auch für die Förderung des Rechtsstaats von Bedeutung."

Das System wählt für den Nutzer, nachdem es dessen Situation erlernt hat, tatsächlich Anwälte in der entsprechenden Gerichtsbarkeit aus, die ihm helfen können. Es ist auch möglich, Informationen zu analysieren und durch den Einsatz von Datenwissenschaften die Erfolgsaussichten einer Klage zu berechnen. In den USA gibt es ebenfalls eine umfangreiche Initiative, KI im Rechtssektor zu integrieren. Ginni Rometty, Vorsitzende und CEO von IBM, sagte kürzlich auf einer Konferenz: "Ich erwarte, dass KI in den nächsten fünf bis zehn Jahren 100 Prozent der Arbeitsplätze verändern wird. Das wird eine massive Weiterentwicklung von Fähigkeiten erfordern, und Unternehmen müssen dies auf eine inklusive Weise tun, die auch Menschen ohne Hochschulabschluss einbezieht."

Viele Menschen sind Veränderungen gegenüber jedoch skeptisch. Besonders Juristen gelten als besonders widerstandsfähig gegen Veränderungen. In den zwei Jahrzehnten, in denen ich mit Anwälten aus den USA zusammengearbeitet habe, habe ich festgestellt, dass Juristen zu den am meisten resistenten Berufsgruppen gegenüber Veränderungen gehören. Es ist faszinierend, dass eine Gruppe von ausgebildeten Logikern nicht immer den Unterschied zwischen optionalen und obligatorischen Veränderungen erkennt. Ob es den Juristen gefällt oder nicht, Anwaltskanzleien sind Unternehmen, und die erfolgreichsten Kanzleien achten auf betriebswirtschaftliche Grundsätze wie Return on Investment (ROI), Marketing und ähnliches. Das Erkennen und Anpassen an Veränderungen war immer – und wird auch weiterhin – das Markenzeichen erfolgreicher Unternehmen bleiben.

Ein Beispiel dafür, wie Veränderungen in der Praxis den Rechtsbereich beeinflussen, zeigt sich an der Einführung von E-Discovery-Tools. Noch vor wenigen Jahren war es nahezu undenkbar, dass eine Kanzlei, die große Mengen an Dokumenten von Hand durchforstete, von einer Kanzlei, die E-Discovery-Technologie nutzte, überholt würde. Heute ist das Gegenteil der Fall: Eine Kanzlei, die keine Technologie einsetzt, wäre der Außenseiter. Der Wandel der E-Discovery-Technologie vollzog sich relativ schnell. Ähnlich verhält es sich mit der Entwicklung von Smartphones. Als Apple im Jahr 2007 das erste iPhone auf den Markt brachte, war es zunächst nur ein iPod in einem Telefon. Heute, nur 12 Jahre nach der Einführung, erwirtschaftet Apple mit dem iPhone etwa 70 % seines Umsatzes.

Das Erkennen und proaktive Reagieren auf kommende Veränderungen hat Apple zu einem weltweiten Unternehmen gemacht. Hätte Apple sich dagegen entschieden, weiterhin auf Macs und iPods zu setzen, wäre das Unternehmen möglicherweise heute nicht mehr existiert. In ähnlicher Weise verändert KI auch den Rechtsbereich. Neue Technologieunternehmen entstehen ständig, um den Bedürfnissen von Anwälten gerecht zu werden, ob für die Zeitverfolgung, die Vertragsprüfung oder die Analyse von Akten und Recherchen. Einige dieser Unternehmen scheitern schnell, obwohl ihre Ideen oft vielversprechend sind. Hinzu kommt die weit verbreitete Angst vor Veränderungen unter Juristen. Das Ergebnis ist, dass die Fortschritte, die im Rechtsbereich zur Steigerung der Effizienz erzielt werden könnten, fast nicht existieren.

Ein Beispiel für eine solche Innovation ist die Plattform LawGeex, die eine automatisierte Vertragsprüfung bietet. Mithilfe von KI wird die Frage „Kann ich diesen Vertrag unterzeichnen?“ beantwortet. Das Verfahren ist einfach: Ein Vertrag wird hochgeladen und von der KI auf Probleme überprüft. Falls welche gefunden werden, wird der Vertrag an ein juristisches Team weitergeleitet, das die fraglichen Formulierungen kennzeichnet. Der Zeitgewinn ist immens, und die Genauigkeit ist unübertroffen. Eine Studie mit fünf Nichtoffenlegungsvereinbarungen (NDAs), die von 20 erfahrenen Anwälten überprüft wurden, zeigte, dass die KI eine weitaus höhere Genauigkeit bei der Vertragsprüfung erzielte.

Die Fortschritte in der Nutzung von KI im rechtlichen Bereich zeigen das enorme Potenzial dieser Technologie. Zukünftig wird die Zusammenarbeit zwischen Mensch und Maschine immer mehr im Fokus stehen, wobei Künstliche Intelligenz als unterstützende Technologie fungiert. Die Herausforderung liegt weniger darin, ob dieser Wandel stattfinden wird, sondern vielmehr darin, wie die Fachwelt diesen Wandel aktiv gestaltet. Es wird eine enge Kooperation zwischen Technologieexperten und Juristen notwendig sein, um das volle Potenzial dieser Entwicklungen auszuschöpfen. Nur durch die richtige Integration von KI in den Rechtsbereich können wir die Effizienz und Qualität von Rechtsdienstleistungen nachhaltig verbessern.