Die Anwendung von künstlicher Intelligenz (KI) in der medizinischen Bildverarbeitung hat das Potenzial, die Diagnostik und Behandlung von Gehirntumoren zu transformieren. Ein entscheidender Fortschritt wurde an der Universität Heidelberg erzielt, wo ein Algorithmus entwickelt wurde, der in der Lage ist, Gehirntumoren in Magnetresonanztomographien (MRT) automatisch zu erkennen und zu lokalisieren. Dieser Algorithmus basiert auf einer umfangreichen Referenzdatenbank von MRT-Scans von fast 500 Patienten mit Gehirntumoren. Die KI lernt nicht nur, Tumoren zu identifizieren, sondern kann auch deren Volumen berechnen, einschließlich der kontrastverstärkten Tumorbereiche und des peritumoralen Ödems.
Ein weiterer bedeutender Vorteil dieses Systems ist die Fähigkeit, die Therapieansprache präzise zu bewerten. Traditionell werden solche Bewertungen manuell durchgeführt, was jedoch fehleranfällig und subjektiv sein kann. In Zusammenarbeit mit der Europäischen Organisation für Forschung und Behandlung von Krebs (EORTC) wurde das System gründlich validiert und die Ergebnisse sprechen für sich. Laut Philipp Kickingereder vom Department für Neuroradiologie der Universität Heidelberg zeigt die computergestützte Methode eine um 36 Prozent höhere Zuverlässigkeit bei der Beurteilung der Therapieantwort im Vergleich zur manuellen Messung. Dieser Fortschritt ist besonders relevant für klinische Studien, in denen eine präzise und zuverlässige Beurteilung der Therapieeffektivität von entscheidender Bedeutung ist. Ebenso wurde die Vorhersage der Gesamtüberlebensrate der Patienten durch den Einsatz dieser Technologie deutlich präziser.
Die Forscher erkannten jedoch schnell, dass es nicht einfach ist, eine große Menge relevanter Bilddaten zu sammeln. Dies erfordert eine Zusammenarbeit vieler Organisationen und eine standardisierte Infrastruktur. Das langfristige Ziel der Heidelberger Forscher ist es, die Technik so zu integrieren, dass sie sowohl in klinischen Studien als auch in der Routinebehandlung von Gehirntumoren eingesetzt werden kann. Um dies zu erreichen, entwickelten sie eine Softwareinfrastruktur, die eine nahtlose Integration in bestehende radiologische Systeme ermöglicht. Mit dieser Lösung könnte die automatische Analyse von MRT-Bildern innerhalb weniger Minuten erfolgen, was zu einer erheblichen Verbesserung der Behandlungszeit und der Genauigkeit der Diagnose führen würde.
Aktuell wird die Technologie im Nationalen Centrum für Tumorerkrankungen (NCT) Heidelberg in einer klinischen Studie zur Verbesserung der Behandlung von Glioblastom-Patienten weiter untersucht. Wolfgang Wick, Leiter der Neurologischen Klinik der Universität Heidelberg, betont, dass die Technologie für präzisionsmedizinische Therapien von entscheidender Bedeutung ist, um die Wirksamkeit neuer Behandlungsmethoden zuverlässig zu bewerten. Philipp Kickingereder und seine Kollegen haben dabei das enorme Potenzial von künstlichen neuronalen Netzwerken in der radiologischen Diagnostik demonstriert. Die Forscher am Deutschen Krebsforschungszentrum, angeführt von Klaus Maier-Hein, arbeiten daran, die Technologie weiterzuentwickeln und sie auch für andere Krankheitsbilder wie Gehirnmetastasen oder Multiple Sklerose zu nutzen.
Während die automatisierte Bildanalyse eine Vielzahl von Vorteilen bietet, ist es wichtig, auch die Herausforderungen zu erkennen, die mit der Anwendung von KI in der Medizin verbunden sind. Eine der größten Hürden bleibt die Sammlung und Qualität der Daten, die für das Training solcher Algorithmen erforderlich sind. Die Zusammenarbeit von Krankenhäusern, Forschungseinrichtungen und Unternehmen ist daher unerlässlich, um qualitativ hochwertige, annotierte Bilddaten in ausreichendem Umfang bereitzustellen. Gleichzeitig muss sichergestellt werden, dass die Algorithmen nicht nur auf spezifische Tumorarten, sondern auch auf unterschiedliche Patientengruppen und klinische Situationen anwendbar sind.
Ein weiteres bemerkenswertes Beispiel für den Einsatz von Künstlicher Intelligenz in der medizinischen Diagnostik ist die Anwendung in der Mammographie. Während Radiologen etwa 80 Prozent der Tumore erkennen, bleibt ein gewisser Anteil unentdeckt. Künstliche Intelligenz, wie sie von DeepMind entwickelt wurde, hat jedoch gezeigt, dass auch diese übersehenen Tumore zuverlässig erkannt werden können. Vergleichende Tests haben gezeigt, dass durch den Einsatz von DeepMind in den USA rund 9,4 Prozent mehr Tumore entdeckt wurden, während in Großbritannien die Entdeckungsrate um 2,7 Prozent gesteigert wurde. Gleichzeitig konnte die Zahl der falsch-positiven Befunde um bis zu 5,7 Prozent verringert werden.
Ein weiteres Beispiel ist die erfolgreiche Entwicklung eines adaptiven Algorithmus zur Erkennung von Alzheimer. Die KI analysiert spezielle Gehirnscans, die für menschliche Augen oft unscharf sind, und konnte in Pilotprojekten eine Trefferquote von 100 Prozent erzielen. Diese Fortschritte im Bereich der Bildverarbeitung und der KI könnten die frühzeitige Erkennung von Alzheimer und anderen neurodegenerativen Erkrankungen signifikant verbessern, was eine frühere Intervention und damit eine bessere Prognose für die Patienten ermöglicht.
Die Forschung geht jedoch über die Gehirntumordiagnostik hinaus. Forscher des Boston Children’s Hospital haben einen Katheter entwickelt, der sich autonom durch Blutgefäße und das Herz bewegt. Dieser Katheter nutzt taktile Sensoren und eine Miniaturkamera, um sich selbst durch das Blut gerahmte, schlagende Herz zu navigieren. Die Technologie basiert auf selbstlernenden Algorithmen, die es dem Katheter ermöglichen, autonom zu handeln, was insbesondere bei minimalinvasiven Eingriffen wie der Implantation von Herzklappen von Bedeutung ist.
Diese Technologien zeigen das enorme Potenzial von KI, nicht nur die Diagnostik, sondern auch die therapeutischen Verfahren in der Medizin zu revolutionieren. Die Integration solcher Technologien in die klinische Praxis könnte den Ärzten helfen, sich auf die komplexeren und entscheidenderen Aufgaben zu konzentrieren, während die Routineaufgaben von Maschinen übernommen werden.
Neben der Weiterentwicklung der Technologien für Gehirntumoren ist es auch entscheidend, dass die Mediziner eine umfassende Ausbildung und Unterstützung erhalten, um mit den fortschrittlichen Werkzeugen umgehen zu können. Der technologische Fortschritt allein reicht nicht aus, ohne dass ein integrativer Ansatz für die Anwendung und das Verständnis der neuen Technologien auf klinischer Ebene entwickelt wird.
Wie verändert künstliche Intelligenz unsere Medizin?
Die Fähigkeit, menschliche Körperfunktionen mittels künstlicher Intelligenz zu analysieren, verändert bereits heute grundlegend den medizinischen Alltag. Was früher dem geübten Ohr eines Arztes vorbehalten war – etwa Atemgeräusche zu deuten, um Krankheiten wie Asthma, Bronchitis oder Pneumonie zu diagnostizieren – übernimmt nun zunehmend Software. Ein Algorithmus wie DeepBreath erkennt Veränderungen im Lungengewebe noch bevor Symptome auftreten, etwa bei asymptomatischen Covid-19-Infektionen. Bis zu 80 Prozent der Infektionen verlaufen ohne erkennbare Symptome – dennoch sind die Betroffenen infektiös. Die Früherkennung durch KI-basierte Systeme kann daher nicht nur Leben retten, sondern auch die Ausbreitung von Krankheiten verhindern. Der Anspruch der Wissenschaftler ist, Werkzeuge zu schaffen, die auch über pandemische Krisen hinaus verlässlich und praxisnah funktionieren.
Im Bereich der Endoskopie hat die Integration künstlicher Intelligenz zu einer signifikanten Verbesserung der Diagnosesicherheit geführt – ohne dass sich für den Patienten der Ablauf verändert. Während der Arzt weiterhin die Bilder auf dem Monitor beurteilt, analysiert die KI dieselben Bilder simultan und identifiziert potenziell gefährliche Veränderungen, die dem menschlichen Auge entgehen könnten. Bis zu 15 Prozent solcher Veränderungen wären sonst unentdeckt geblieben. Inzwischen existieren auch robotergestützte Systeme, die ohne klassischen Endoskopieeinsatz auskommen – ein kleiner, mit Kamera und Instrumenten ausgestatteter Roboter bewegt sich selbstständig durch den gereinigten Darm.
Die Verschmelzung von Bildverarbeitung, Biotechnologie und 3D-Druck erschließt neue Dimensionen. Forscher der Universität Tel Aviv haben ein vollständig aus menschlichem Gewebe gedrucktes Herz vorgestellt. Zwar fehlt dem Prototyp noch die Fähigkeit zur synchronen Kontraktion – er entspricht derzeit dem Entwicklungsstand eines menschlichen Fötusherzens – doch besitzt er bereits Kammern und ist vollständig biokompatibel. Das bedeutet: Kein Risiko einer Immunreaktion, keine Notwendigkeit zur Immunsuppression, da das Gewebe aus den Fettzellen des künftigen Empfängers stammt. Die Zellen wurden aus Biopsien gewonnen, in pluripotente Stammzellen umgewandelt, dann zu Herzmuskel- und Endothelzellen differenziert und mit einer Trägermatrix aus Glycoproteinen und Kollagen vermischt. Daraus entstand eine Bio-Tinte, mit der der 3D-Drucker Gewebestrukturen formte – bis hin zu vollständigen Organen.
Noch ist das gedruckte Herz nicht funktional einsetzbar, aber der Weg zur klinischen Anwendung scheint geöffnet. Die nächsten Schritte sind Tierversuche, gefolgt – frühestens in einigen Jahren – von Studien am Menschen. Die potenzielle Relevanz ist enorm: Herzkrankheiten sind weltweit eine der Haupttodesursachen, während Spenderorgane rar und oft mit Abstoßungsreaktionen verbunden sind.
Auch in der Wirkstoffforschung verändert künstliche Intelligenz die Spielregeln. Forscher am MIT entwickelten mit Hilfe neuronaler Netze ein neues Antibiotikum namens Halicin. Anders als klassische Antibiotika, die meist nur Modifikationen bekannter Substanzen darstellen, ist Halicin ein völlig neuartiges Molekül. Es greift Bakterien an, indem es ihre Fähigkeit zur Aufrechterhaltung des elektrochemischen Potentials blockiert – ein fundamentaler Vorgang für die Energiegewinnung. Die Ergebnisse sind bemerkenswert: E. coli zeigte auch nach 30 Tagen keine Resistenzentwicklung, während klassische Antibiotika wie Ciprofloxacin bereits nach wenigen Tagen ihre Wirksamkeit verlieren.
Die KI wurde zunächst mit 2.500 Molekülstrukturen trainiert, davon rund 800 natürlichen Ursprungs. Basierend auf diesem Wissen generierte das System eine Bibliothek mit etwa 6.000 neuen Molekülen, darunter Halicin. In Tierversuchen konnte das Mittel erfolgreich resistente Bakterienstämme eliminieren – etwa solche, mit denen sich Soldaten im Nahen Osten infizieren. Die Vision geht jedoch weiter: Neben der Entwicklung neuer Medikamente soll die KI künftig auch bestehende Wirkstoffe optimieren, Nebenwirkungen minimieren und Wirksamkeit maximieren. Eine Datenbank mit über 100 Millionen Molekülen lieferte in kürzester Zeit 23 neue Kandidaten mit hoher therapeutischer Relevanz.
Ein weiteres Beispiel für den prädiktiven Einsatz künstlicher Intelligenz ist die Altersleistungsprognose im Sport. Forscher der Universität des Saarlandes haben ein Modell entwickelt, das aus einer einzigen Leistungsaufnahme langfristige Vorhersagen zur körperlichen Leistungsfähigkeit im Alter ableiten kann. Grundlage war eine umfassende Datenbasis von rund 5.000 schwedischen Leichtathleten mit dokumentierten Leistungen über Jahrzehnte hinweg. Ziel ist, das Altern des Körpers nicht nur als biologischen Prozess zu verstehen, sondern als mathematisch fassbare Entwicklung mit klarem Verlauf.
Der tiefere Kern dieser Entwicklungen liegt nicht allein in der technologischen Innovation, sondern in der systemischen Transformation der Medizin selbst. KI-gestützte Diagnostik, präzise Vorhersagemodelle, organischer 3D-Druck und automatisierte Arzneimittelentwicklung führen zu einer personalisierten, präventiven und proaktiven Medizin, deren Dynamik die traditionellen Grenzen von Disziplinen überwindet. Diese neuen Technologien verlangen jedoch nicht nur klinische Validierung, sondern auch ein ethisches, regulatorisches und gesellschaftliches Umdenken.
Wer trägt die Haftung für Schäden durch Roboter? Die rechtlichen Herausforderungen der Robotik
Die Integration von Robotern in unsere Gesellschaft und Wirtschaft bringt zunehmend komplexe rechtliche Fragestellungen mit sich, die vor allem die Haftung und den Schutz von Rechten im Zusammenhang mit den Technologien betreffen. Während die Entwicklung von Robotern rasant voranschreitet, sind rechtliche Rahmenbedingungen noch immer in vielen Bereichen unterentwickelt. Die fortlaufende Auseinandersetzung mit der Haftung für Schäden durch Roboter ist dabei von zentraler Bedeutung, vor allem im Hinblick auf die Interaktion zwischen Mensch und Maschine.
Roboter, die mit eingebetteten Computersystemen arbeiten, sind weit mehr als nur Maschinen. Sie agieren autonom, treffen Entscheidungen und können sogar unter gewissen Umständen Fehler machen, die zu Schäden führen. So wurde das Thema Haftung insbesondere im Zusammenhang mit der Software und den darin enthaltenen Programmierungen immer relevanter. Ein Roboter kann ohne seine eingebettete Software nicht funktionieren – sie ist die Grundlage für die Interaktion mit seiner Umwelt. Dies führt zu der entscheidenden Frage: Wer trägt die Verantwortung, wenn ein Roboter Fehler macht, die zu Sach- oder Personenschäden führen?
Die Frage der Haftung für Roboterschäden wird zunehmend komplexer, besonders in Bezug auf die Frage, wer für die Entscheidungen eines Roboters, der auf Basis künstlicher Intelligenz agiert, verantwortlich ist. Grundsätzlich lässt sich eine Haftung des Herstellers unter dem Produkthaftungsgesetz (ProdHaftG) ableiten. Voraussetzung hierfür ist, dass der Roboter bei seiner Markteinführung einen Fehler aufwies, der später zu einem Schaden geführt hat. Dies könnte etwa der Fall sein, wenn die Sicherheitsvorkehrungen im Programmiercode eines Roboters unzureichend sind. Der Hersteller haftet jedoch nur dann, wenn der Defekt zum Zeitpunkt des Inverkehrbringens des Roboters bereits vorlag und er nachweislich nicht rechtzeitig erkannt wurde.
Neben der Herstellerhaftung wird häufig auch die Haftung des Nutzers diskutiert. Wenn ein Roboter im Rahmen eines Vertragsverhältnisses (z. B. Mietvertrag) von einer anderen Partei genutzt wird und dabei ein Schaden entsteht, so liegt ein Pflichtverstoß im Sinne des §280 BGB vor. Der Nutzer ist in diesem Fall verpflichtet, alle erforderlichen Sicherheitsmaßnahmen zu treffen und die ordnungsgemäße Nutzung des Roboters sicherzustellen. Bei einem Verstoß gegen diese Pflicht kann er für den entstandenen Schaden haftbar gemacht werden.
Ein weiteres Problem besteht darin, dass viele Roboter über autonome Entscheidungsfähigkeiten verfügen, die auf Künstlicher Intelligenz (KI) basieren. Dies wirft die Frage auf, wer für die Entscheidungen des Roboters verantwortlich ist, insbesondere wenn diese Entscheidungen zu Schäden führen. In solchen Fällen könnte argumentiert werden, dass der Nutzer des Roboters haftet, da er für die Nutzung des Systems verantwortlich ist und somit auch die Sicherheit gewährleisten muss. Allerdings sind die rechtlichen Konsequenzen der Nutzung von KI noch weitgehend unklar und könnten in Zukunft zu intensiven rechtlichen Diskussionen führen.
Ein entscheidender Aspekt bei der rechtlichen Bewertung von Robotern ist die Frage, ob eine Erfindung patentiert werden kann. Patente schützen neue technische Entwicklungen, die in der Lage sind, einen industriellen Nutzen zu bieten. Im Fall von Robotern könnte dies etwa die Entwicklung neuer Bewegungsmechanismen oder innovativer Funktionen betreffen. Ein Patent wird nur dann gewährt, wenn die Erfindung als neu und erfinderisch gilt und eine industrielle Anwendbarkeit aufweist. In der Praxis bedeutet dies, dass jede Neuerung, die eine tatsächliche Verbesserung gegenüber dem bisherigen Stand der Technik darstellt, patentiert werden kann.
Ein Roboter wird jedoch nicht nur durch Patente geschützt, sondern auch durch andere Rechtsvorschriften, die sich mit Software und deren Nutzung befassen. Im Hinblick auf das Urheberrecht ist es wichtig zu beachten, dass eingebettete Software, die einem Roboter zugrunde liegt, nicht immer als eigenständiges Schutzobjekt angesehen wird. In vielen Fällen wird diese Software als Bestandteil des physischen Roboters betrachtet, was Auswirkungen auf die Verwertungsrechte hat. Die rechtliche Unterscheidung zwischen Hardware und Software ist in der Praxis oft nicht eindeutig und kann zu verschiedenen Interpretationen führen, je nachdem, wie die Rechte an der Software und deren Nutzung geregelt sind.
In Deutschland, aber auch in der Europäischen Union, gibt es klare gesetzliche Regelungen zum Schutz von Patenten, wie etwa das Patentgesetz (PatG) und die Europäische Patentübereinkunft (EPÜ). Diese Regelungen definieren, was unter einer patentfähigen Erfindung zu verstehen ist, und sie stellen sicher, dass neuartige Entwicklungen, die in der Robotik zur Anwendung kommen, geschützt werden können. Allerdings müssen diese Erfindungen in der Lage sein, eine technische Aufgabe zu lösen und auf industriellen Nutzen ausgerichtet sein.
Ein weiterer wichtiger Punkt im Bereich der Robotik und der Haftung ist die Tatsache, dass die Entwicklung und Herstellung von Robotern mit hohen Kosten verbunden sind. Da diese Investitionen in der Regel kommerziellen Zwecken dienen, ist es entscheidend, dass die Erfindungen in der Robotik nicht nur durch Patente geschützt, sondern auch kommerziell genutzt werden können. Die Entwicklung von Robotern, die als Haushaltshelfer oder in der Industrie eingesetzt werden, ist ein gutes Beispiel für die kommerzielle Ausrichtung dieser Technologien.
Was oft übersehen wird, ist, dass mit der zunehmenden Verbreitung von Robotern und KI-gestützten Systemen die rechtlichen und ethischen Fragestellungen immer komplexer werden. Es reicht nicht aus, nur die Verantwortung des Herstellers oder des Nutzers zu klären. Es muss auch eine umfassende Betrachtung der Regelungen und Normen erfolgen, die die Interaktion zwischen Mensch und Maschine betreffen. Die Gesellschaft steht vor der Herausforderung, wie Haftungsfragen in einer zunehmend digitalisierten Welt gerecht geregelt werden können, ohne dass Innovationen unnötig behindert werden. Die zunehmende Vernetzung und Autonomie von Robotern werden die rechtlichen Diskussionen sicherlich noch weiter intensivieren.
Wie beeinflusste die Entwicklung der Dualen Algebra die moderne Technologie?
Das duale Zahlensystem, auch als Binärsystem bekannt, ist eine der zentralen Grundlagen der modernen Informatik und Elektronik. Dieses Zahlensystem verwendet lediglich zwei Ziffern, 0 und 1, und stellt jede Zahl als eine Summe von Potenzen der Zahl 2 dar. Um dies zu verdeutlichen, betrachten wir als Beispiel die Zahl 0,728 im Dezimalsystem. Sie lässt sich in das Dualsystem übersetzen:
Das Binärsystem erfordert somit nur die Ziffern 0 und 1, im Gegensatz zum Dezimalsystem, das zehn Ziffern (0 bis 9) nutzt. Obwohl die duale Darstellung eine größere Anzahl an Ziffern benötigt, um dieselbe Zahl darzustellen, ist sie aufgrund der Einfachheit der beiden verwendeten Ziffern besonders für die technische Umsetzung geeignet. Die Rechenoperationen im Binärsystem sind grundsätzlich einfacher als im Dezimalsystem: Addition, Subtraktion, Multiplikation und Division lassen sich mit wenigen, klar definierten Regeln durchführen.
Im Bereich der digitalen Schaltungen und der Informatik hat das Binärsystem nicht nur praktische Bedeutung, sondern ist auch das Fundament für die Entwicklung der digitalen Logik und der Boolean-Algebra. Diese Algebra, entwickelt vom englischen Mathematiker und Philosophen George Boole im 19. Jahrhundert, ist heute das Rückgrat für Mikroelektronik und Computertechnik. Boole stellte fest, dass Aussagenlogik mit nur zwei Wahrheitswerten arbeitet: „wahr“ (1) und „falsch“ (0). Diese Erkenntnis ermöglichte es ihm, eine algebraische Struktur zu entwickeln, die Aussagen mit logischen Operatoren wie Konjunktion (UND), Disjunktion (ODER), Negation (NICHT) und Äquivalenz verknüpft.
Boole formulierte die sogenannte Gleichung , wobei x nur die Werte 0 oder 1 annehmen kann. Diese Grundlage fand eine enorme Anwendung in der Konstruktion von digitalen Schaltungen. So wird zum Beispiel eine logische „UND“-Verknüpfung in digitalen Schaltungen durch die Multiplikation zweier binärer Zahlen umgesetzt, und eine „ODER“-Verknüpfung entspricht der Addition der Zahlen ohne Übertrag. Diese einfachen mathematischen Operationen bilden die Basis für komplexe Berechnungen in Computern und modernen elektronischen Geräten.
Die wirkliche Revolution begann jedoch mit Claude Shannon, einem amerikanischen Mathematiker und Ingenieur, der 1937 in seiner Dissertation „A Symbolic Analysis of Relay and Switching Circuits“ nachwies, dass man Boolean-Algebra verwenden kann, um die Konstruktion von elektrischen Relais in Telefonvermittlungsstellen zu optimieren. Shannon zeigte, wie logische Funktionen auf einfache Weise mit Relais kombiniert werden können, um effizientere Schaltungen zu schaffen. Dies führte direkt zur Entwicklung der digitalen Elektronik, die den Weg für die modernen Computer und Mikrochips ebnete.
Die Grundprinzipien der Boolean-Algebra sind heute noch die Grundlage für die Gestaltung von Mikroprozessoren und sämtlichen digitalen Geräten. In der modernen Informatik sind diese Konzepte nicht nur entscheidend für die Hardwareentwicklung, sondern auch für das Softwaredesign. Auch in der Programmiersprache finden wir deren Anwendung, zum Beispiel in der Entwicklung von Algorithmen für künstliche Intelligenz, wo binäre Entscheidungen über „wahr“ und „falsch“ eine wesentliche Rolle spielen.
Neben der praktischen Anwendung in der Informatik und Elektrotechnik beeinflusste die Boolean-Algebra auch die Entwicklung von Programmiersprachen und Algorithmen. Viele moderne Programmiersprachen wie C, C++, Java oder Python basieren auf den Prinzipien der logischen Operatoren und der Algorithmen, die durch Boolean-Algebra ermöglicht werden. Diese Programmiersprachen sind heute unabhängig vom verwendeten Betriebssystem und ermöglichen es, Software zu erstellen, die auf einer Vielzahl von Geräten läuft, von Supercomputern bis hin zu Smartphones.
Neben der Hardwareentwicklung durch das Binärsystem hat sich die digitale Repräsentation von Informationen auch auf die Darstellung von physikalischen Phänomenen ausgeweitet. Heutzutage können nahezu alle Arten von Daten – von Tonaufnahmen über Bilddaten bis hin zu Röntgenbildern und Satellitenbildern – digitalisiert und in Computern gespeichert werden. Die Fähigkeit, diese Informationen digital darzustellen, hat es ermöglicht, dass moderne Technologien in so unterschiedlichen Bereichen wie der medizinischen Bildgebung, der künstlichen Intelligenz und der Raumfahrt revolutionäre Fortschritte gemacht haben.
Diese Entwicklungen, beginnend mit den fundamentalen Erkenntnissen von George Boole und weitergetragen von Claude Shannon, haben nicht nur die Art und Weise verändert, wie wir mit Maschinen interagieren, sondern auch den Bereich der digitalen Schaltungen und der Computertechnik bis heute geprägt. Die grundlegenden Konzepte der Logik und Algebra, die in den frühen 1800er Jahren formuliert wurden, sind nach wie vor entscheidend für die Technik von morgen.
Wie die Frühgeschichte der menschlichen Werkzeuge unser Verständnis von Kultur und Anpassung prägt
Wie der Einfluss von multinationalen Unternehmen und internationalen Organisationen die globale Wirtschaft gestaltet
Wie verbindet Einsteins Arbeit die Thermodynamik mit der molekular-kinetischen Theorie der Diffusion?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский