DPU - Wissenschaft & Kunst im Dialog

m die Risiken dieser Entwicklungen besser zu erkennen und einzuschränken, ist die interdisziplinäre Kommunikation unabdingbar gefordert. Einer Einladung der Danube Private University zu dem Problemkreis „Humanismus im Schatten von KI“ folgte der namhafte deutsche Philosoph und Schriftsteller Dr. Rüdiger Safranski, um sich mit Lehrenden, Studierenden und weiteren Gästen auszutauschen. Diese wissenschaftliche und philosophische Auseinandersetzung erinnert an Ciceros1 Erzählung vom Schwert des Damokles, drohende Gefahren überschatten unser Glück. Die Entwicklung von KI ist leider auch die Quelle so mancher außergewöhnlicher Gedankenspiele und Fantasien. Stefan Klein, einer der bedeutendsten Wissenschaftsautoren, der unlängst an der Danube Private University zu Besuch war, ist der Meinung, wenn man über unsere Zukunft nachdenken möchte, dann solle man Science-Fiction-Romane lesen, es sei alles möglich. Die Beschäftigung mit KI im genannten Gesprächskreis bestätigt in vielen Texten, die in der Folge entstanden und Bestandteil dieser Veröffentlichung sind, wie das Unglaubliche und Unvorstellbare im Zuge der zukünftigen Entwicklung der neuen Technologien in Erscheinung treten könnte. Prof. Dr. Jens Christoph Türp, der an der Danube Private University „Wissenschaftliches Arbeiten“ und „Didaktik“ lehrt, zitiert in seinem schriftlichen Resümee zur Gesprächsrunde den englischen Naturphilosophen James Lovelock (1919-2022)2: „Wir Menschen werden die Erde zum ersten Mal mit anderen Wesen teilen, die Fähigkeit, dass die „Künstlerische Intuition in der umfassenden Bedeutung durch Künstliche Intelligenz punktuell gestützt, keinesfalls aber ersetzt werden kann.“ Für große Kunst und Kulturgüter, die der Homo sapiens über Jahrtausende geschaffen hat, bedarf es eben mehr als „nur“ der Algorithmen einer KI, nämlich ein Bewusstsein der Wirklichkeit seiner selbst, jenes das Platon mit der Begrifflichkeit „ousia“ definiert, als das „Seiende“ des Unveränderlichen im Gegensatz zum Werden der entstehenden und vergehenden Phänomene. Auch bei allem notwendigen und kritischen Diskurs, der sich in den Beiträgen in seiner Vielfalt spiegelt, verzeichnet die KI positive Entwicklungen, die uns von ganz besonderem Nutzen sind, z. B. im Rahmen der Gesundheitsvorsorge, der Verbrechensbekämpfung, der Verkehrsoptimierung, des Umweltschutzes, der Energieversorgung und vieles mehr. Neue technologische Entwicklungen müssen, das haben wir aus der Vergangenheit gelernt, vor allem kontrolliert und auch hoffentlich beherrscht werden. Es liegt, wie bereits gesagt, an uns, was weiterhin unsere Zukunft bestimmen soll. Es gibt schlichtweg immer wieder skrupellose Zeitgenossen, die wie KI über kein Gewissen verfügen. Ob wir also diesen fulminanten Vormarsch der Technologien im Zaum halten können, was ja unser Ziel sein soll, erinnert an Johann Wolfgang von Goethe (1749–1832), Faust 1: „Die Botschaft hör ich wohl, allein mir fehlt der Glaube.“3 Denken wir an die Atombombe, die in regelmäßigen Abständen von machtgierigen Spezies als Druckmittel zur Durchsetzung ihrer Interessen ins Spiel gebracht wird. Was die neuen Technologien betrifft, sind wir mit einer unglaublich großen Vielfalt von rasanten Entwicklungen konfrontiert, die beherrscht werden müssen und daher extremen Herausforderungen ausgesetzt sind. KI will uns primär das Leben einfacher, bequemer, gesünder gestalten, was auch vielfach der Fall ist. Allerdings beraubt sie uns gleichsam unserer Fähigkeiten und Talente, sodass das Gros der Menschen verkümmern oder vielleicht sogar nur noch von kleinen Eliten instrumentalisiert werden könnte. KI rechnet, schreibt und denkt zum Beispiel für uns. Roboter dirigieren ein Orchester, sprechen mit Von Prof.in h. c. Marga B. Wagner-Pischel, Präsidentin und Gründerin der DPU Der Hurricane KI fegt über unsere Erde hinweg, um uns auf die nächste Stufe der Evolution zu heben. Der unentwegte Aufmarsch neuer Technologien ist nicht mehr von uns aufzuhalten, bewegt sich zwischen Hoffnung und Brutalität. U © Nik Pichler Entfesseltes und seine Folgen menschliches Denken Wissenschaft & Kunst im Dialog Doch „Humanismus“ hatte im 16. Jahrhundert in der Renaissance einen präzisen Sinn. Der Humanismus grenzte sich nämlich ab von der im christlichen Abendland lange Zeit herrschenden Überzeugung, wonach der Mensch sich nach Gott richten soll. Der Humanismus erklärte demgegenüber: Der Mensch hat sehr wohl das Potential, sich nach sich selbst richten zu können. Autonomie steht gegen Theonomie. im Schatten der KI Humanismus Der Begriff „Humanismus“ ist über lange Zeit ziemlich nichtssagend gewesen. Wer möchte denn nicht „human“ sein? Humanismus im Sinne von „Menschlichkeit“ ist oft nur eine wohlfeile Phrase. Rüdiger Safranski, Literaturwissenschaftler, Philosoph und Schriftsteller intelligenter sind als wir.“ Dabei soll das „wasser- und kohlenstoffbasierte“ organische Leben (das sind wir!) durch eine „silizium- oder karbonbasierte“ Lebensform ersetzt werden, die sich selbst programmiert geschaffen hat und Millionen Mal intelligenter sei als wir. Auf diese Art und Weise würden wir uns selbst zugrunde richten. So weist Prof. Pries in seinem Beitrag ergänzend darauf hin, „die KI wird zwar programmiert – aber ihre Verhaltensweisen sind trotzdem nicht im üblichen Verständnis „vorprogrammiert“, und wie in der Natur können durch Lernen, Variieren und Selektieren sehr überraschende Ergebnisse entstehen.“ Tröstlich und vielleicht auch entfesselnd klingt dabei die Anmerkung im Beitrag von Herrn Gulda im Kontext der menschlichen Besonderheit seiner kreativen, künstlerischen und schöpferischen Fortsetzung auf der nächsten Seite Fortsetzung auf der nächsten Seite „Die Danube Private University wurde zu einem Leuchtturm der medizinischen Ausbildung und Forschung.“ Johanna Mikl-Leitner, Landeshauptfrau Niederösterreich

Fortsetzung auf der nächsten Seite Fortsetzung „Humanismus im Schatten der KI“ von Rüdiger Safranski Fortsetzung „Entfesseltes menschliches Denken und seine Folgen“ von Prof.in h. c. Marga B. Wagner-Pischel kranken und alten Menschen, täuschen Einfühlsamkeit vor. „Die Welt“ berichtet von einer Studie von Wissenschaftler*innen, die die größten Risiken für das Überleben der Menschheit untersucht. „Der Klimawandel rangiert weit abgeschlagen, auch der Atomkrieg belegt nur Platz 4. Die Super-Prognostiker*innen fürchten nun vor allem eine Gefahr,“ „wild gewordene KI als größtes Menschheitsrisiko“.4 Im ARD-Magazin „Plusminus“ vom 21. Juni 2023 wird berichtet, dass Cyberkriminelle das KI-Programm ChatGPT missbrauchen, um Ransomware, sogenannte Erpressersoftware herzustellen, oder um Daten auszuspionieren bzw. zu stehlen. Am Research Center for Medical Image Analysis and Artificial Intelligence (MIAAI) der DPU wird mithilfe von bildgebenden Verfahren die Früherkennung und Abschätzung von Erkrankungsrisiken unter der Leitung von Univ.-Prof.in PDin Dr.in Ramona Woitek PhD erforscht, um schöpferisch zerstörerischen Prozessen in unserem Körper entgegenzuwirken. Der Einsatz von KI an der Danube Private University hat eine ganz besondere Bedeutung in der Humanmedizin und Zahnmedizin. In einer zeitgemäßen, zukunftsorientierten Ausbildung von Ärzt*innen und Zahnärzt*innen State of the Art ist dies unabdingbar. An unserer Universität sieht man es darüber hinaus jedoch auch als eine wichtige Aufgabe an, den Studierenden durch die Einbeziehung der Kunst, Kultur und Philosophie einen weiteren Horizont zu eröffnen. Exzellente Fachkompetenz in Verbindung mit einer humanistischen Denkweise und einem klaren Wertegerüst zu einem ganzheitlichen Menschsein zu verbinden, ist das Ziel. Alles ist mit allem vernetzt. Der Mensch muss sich in das lebendige Wirken der Natur, der gesamten Schöpfung, mit Demut einfügen, sich als Teil einer Weltenseele verstehen. KI wird unser kulturell wertvolles Erbe nicht in die Vergessenheit versenken, wenn unsere humanistische Gedankenwelt von uns gelebt wird, denn schließlich ist sie vor allem auch ein Teil dessen, „was unsere Welt im Innersten zusammenhält“, um Johann Wolfgang von Goethe, Faust 1 zu zitieren.5 Trotz aller Sorge bleibt für uns die Hoffnung einer inneren geistigen Erneuerung der Gesellschaft, um damit eine menschlichere Welt zu schaffen. 1Cicero (106–43 v. Chr.) | 2Lovelock J: Novozän. Das kommende Zeitalter der Hyperintelligenz. Beck, München 2020: 131, 141 | 3 Johann Wolfgang von Goethe (1749–1832), Faust 1, Vers 765 | 4 Welt+, 24.07.2023 | 5 Johann Wolfgang von Goethe (1749–1832), Faust I, Vers 382 f. Prof.in h.c. Marga B. Wagner-Pischel im Gespräch mit Dr.in Rita Knobel-Ulrich, Autorin und Filmemacherin, unter anderem für das deutsche Fernsehen Rüdiger Safranski charakterisiert den Humanismus durch die Entwicklung des Individualismus und der unmittelbaren Verantwortung des Menschen für sich selbst und dessen Kontrolle durch die Erfindung der Gewaltenteilung. Die Renaissance habe so den mächtigen Schatten Gottes auf der Beschäftigung des Menschen mit seinen Möglichkeiten und Abgründen durch das Licht der Aufklärung aufgehellt. Er stellt dar, dass diese nackte Aussetzung des Menschen in sein eigenes Licht nicht auf Dauer gesetzt sein könnte. Der Schatten durch das von Menschen erzählte Narrativ Gottes könnte durch den Schatten der von Menschen gemachten digitalen Maschinen ersetzt werden. Aber er gibt uns auch Hoffnung, dass deren ‚Künstliche Intelligenz‘ in wesentlichen Aspekten nicht der des Menschen gleich sein könne. Dann wäre der neue Schatten nicht so dicht wie der Schatten Gottes vor der Aufklärung. Gott hat die Menschen zwar nach seinem Bilde geschaffen, aber ihnen nicht seine Fähigkeiten anvertraut. Ihr Wunsch nach einem gewissen Grad an Erkenntnis musste um den Preis der Vertreibung aus dem Paradies erkauft werden – ein Schicksal, dass heute noch jeder Mensch in der Pubertät nacherlebt. Es bleibt also eine fundamentale Hierarchie erhalten, und die übergeordnete Instanz verdunkelt die nachgeordnete. Rüdiger Safranski tröstet uns in Bezug auf die Sorge vor einer neuen Verdunklung der Humanität durch die Digitalität, indem er darlegt, dass der „Künstlichen Intelligenz“ als neuer Bedrohung enge Grenzen gesetzt sind, da sie dem menschlichen Geist nicht gleichen könne. Dieser habe mit Gefühlen, Selbsterkenntnis, Unterscheidung von Phantasie und Realität, Schöpfertum, Empathie und Moral einen uneinholbaren Vorsprung und eine sichere Domäne mit menschlichen „Alleinstellungsmerkmalen“. Es wäre sehr schön, wenn diese Brandmauer standhält, aber es ist nicht sicher, dass die Differenzierung des aktuellen Zustands auch in Zukunft Gültigkeit bewahrt und menschliche von Künstlicher Intelligenz trennt. Diese Skepsis speist sich aus der Beobachtung von Strukturen und Mechanismen der sogenannten „Künstlichen Intelligenz“ und ihrer Ähnlichkeit mit Strukturen und Mechanismen der Natur. Ein gängiges Verständnis von KI ist, dass es sich um die Anwendung von Computer-Programmen handelt und es Algorithmen sind, die in Social Media bestimmte Inhalte aussuchen oder in Röntgenbildern pathologische Veränderungen erkennen. Bei aller Sorge um mögliche Auswirkungen von KI auf Lebensbedingungen enthält diese Aussage etwas Beruhigendes: Algorithmen sind ja eindeutige und nachvollziehbare Handlungsvorschriften, die in den Schritten eines Programms niedergelegt werden können. Damit bleiben sie überschaubar und tun nur, Der berühmte Renaissancephilosoph Pico della Mirandola war in diesem Sinne kühn genug zu behaupten, der Mensch sei ein noch unfertiges Wesen, das aber von Gott mit der Fähigkeit begabt worden sei, sich selbst zu vollenden. Wir sind das, „was wir sein wollen“, erklärte er, freilich in den Grenzen der „natürlichen Schranken“, wie er hinzufügte. Ein Halbfabrikat also, das sich erst noch fertig machen kann und soll. Und das gilt nicht nur für ein Kollektiv bei der Schaffung einer gemeinsamen Kultur, das gilt auch und vor allem für den Einzelnen. Dieser Humanismus des 16. Jahrhunderts war von vornherein auch individuell gerichtet. Aus solchem Individualismus erwuchs dann auch ein gesellschaftliches Konzept. Was bedeutet in diesem Zusammenhang Individualismus? Es bedeutet, dass es auf den Einzelnen ankommt; dass die Verschiedenheit der Menschen ein hohes Gut ist und dass es darauf ankommt, diese Verschiedenheiten zu begünstigen und zu entwickeln. Im Blick auf die Gesellschaft bedeutet das: Der Sinn von Kultur, Staat und gesellschaftlichem Leben ist nicht das kollektive Gebilde als Selbstzweck, sondern die möglichst reiche und unterschiedliche Entwicklung der Individuen, aus denen dieses sich zusammensetzt. Der Humanismus setzt also beim Einzelnen an, nicht beim Kollektiv. Aus diesem Prinzip entspringen die meisten normativen Ideen, welche die aufgeklärte europäische Moderne ausmachen: Meinungs- und Gewissensfreiheit, Toleranz, Gerechtigkeit und Recht auf körperliche Unversehrtheit. Dieses Prinzip bedeutet auch, dass der/die Einzelne mit seinen/ihren Rechten zur Not auch gegen die Familie oder andere Nahverhältnisse geschützt werden muss. Der Humanismus impliziert ein helles, ein positives Menschenbild. Deshalb geriet auch der Humanist Erasmus von Rotterdam in einen Streit mit Luther, der von einer durchgehend sündigen Natur des Menschen ausging und, anders als Erasmus, den freien Willen des Menschen leugnete. Doch so positiv der Humanismus auch vom Menschen dachte, so war er doch nicht naiv. Er erkannte durchaus auch die dunklen Seiten der menschlichen Natur. Deshalb gehört zum Humanismus auch der Einfallsreichtum, sich Hilfsmittel auszudenken, um die dunklen Aspekten der menschlichen Realität einzuschränken und womöglich etwas Gutes daraus zu machen. Egoismus und Trägheit zum Beispiel sollten durch Wettbewerb und Konkurrenz zugleich angestachelt und domestiziert werden. Dieser Gedanke findet sich schon bei Immanuel Kant. Der Mensch sei zwar aus „krummem Holz“, erklärt er, aber durch Konkurrenz und Wettbewerb sei Fortschritt möglich. Wir konkurrieren uns empor – so lautet Kants humanistisch-liberales Glaubensbekenntnis. Zu dieser humanistisch-liberalen Tradition gehört als zweites der Gedanke der Gewaltenteilung, der zum ersten Mal im 18. Jahrhundert von Montesquieu explizit formuliert wurde. Auch das Prinzip der Gewaltenteilung – sicherlich eine der genialsten Erfindungen im Politischen – geht davon aus, dass der Mensch ein „krummes Holz“ ist; deshalb ist ein gesundes Misstrauen angebracht, besonders beim Umgang mit Macht. Da Macht immer missbraucht werden kann, muss sie aufgeteilt werden, im Prinzip ebenso wie zur Öffnung eines Tresors oder zur Auslösung eines Waffensystems mehrere Schlüssel, auf verschiedene Personen und Institutionen verteilt, erforderlich sind. Auch Gewaltenteilung knüpft an die Idee der Konkurrenz an, sie ist nichts anderes als geregelte Machtkonkurrenz, um zu verhindern, dass eine Macht ein Monopol erringt. Es geht dabei nicht nur um die rein politische Gewaltenteilung zwischen Legislative, Judikative und Exekutive. Das Prinzip der Gewaltenteilung ist viel umfassender und bezieht sich auf die Ausbalancierung der Lebensmächte Ökonomie, Religion, Wissenschaft, Technik, Politik, Öffentlichkeit und Privatsphäre. Zwischen all diesen Bereichen gibt es Spannungen und deshalb das Erfordernis, sie auf geregelte Weise wechselseitig zu begrenzen. Verhindert werden muss jedenfalls die Allmacht eines der Bereiche. Demokratie, Liberalität, Humanismus im Schatten der KI Zauberlehrling 2.0 Hon.-Prof. (DPU) Univ.-Prof. Dr. Axel R. Pries, Prorektor für Humanmedizin der DPU und Präsident des World Health Summit Fortsetzung in der Mitte auf der nächsten Seite

Im Humanismus werden Wettbewerb und Konkurrenz als Hilfsmittel gegen „die dunklen Seiten der menschlichen Natur“, wie Trägheit und Egoismus, verstanden, die als Triebfedern für den geistigen und gesellschaftlichen Fortschritt dienen. In der Evolutionsbiologie wird das Konkurrenzverhalten als ein wichtiger Motivator in der kognitiven Entwicklungsgeschichte des Menschen betrachtet. Das Konkurrieren um Nahrung, Ressourcen und Paarungspartner in der Gruppe ist ein Verhalten, das die Entwicklung von Strategien zur Problembewältigung und vor allem Fertigkeiten in der sozialen Interaktion maßgeblich förderte. Nichtmenschliche Primaten wie die Schimpansen erkennen ihren eigenen Status sowie den ihrer biologischen Verwandtschaft und können auch die soziale Rolle Dritter sowie deren Verwandtschaftssysteme erfassen. Sie erkennen Bindungen zwischen anderen, sind in der Lage, diese Beziehungen zu vergleichen und sind zur Manipulation fähig. Sie können – bis zu einem gewissen Grad – den Zusammenhang zwischen Ursache und Wirkung verstehen und (logische) Schlussfolgerungen ziehen. Diese Fähigkeiten werden als Schlüsselkompetenzen des Denkens („Theory of mind“) verstanden, die bei unseren nächsten noch lebenden Verwandten im Tierreich primär dem individuellen Vorteil dienen und nicht der Gemeinschaft (Call & Tomasello 2008). Während der Hominisation ändern sich Motivation und Intensität dieser Kompetenzen maßgeblich. Der moderne Mensch erkennt nicht nur ein „Ich“ und ein „Du“, sondern entwickelt ein „Wir“-Gefühl, das gemeinsame Ziele und eine moralische Identität schafft. Eine zentrale Rolle spielen dabei Sprache und Sozialisierung. Kommunikationsfähigkeit ermöglicht die Planung und Entwicklung von Strategien sowie Tradierungsprozesse und somit die Weitergabe von Wissen über Generationen. Die Sozialisierung geht mit dem Leben in der Gruppe einher und wird durch Austausch und Auseinandersetzungen sowie Kooperationen und Allianzen verstärkt. Nach dem Psychologen und Neurowissenschaftler Michael Tomasello (2020) konnte sich erst mit diesen Schlüsselkomponenten die menschliche Kultur überhaupt entwickeln. Weitere Studien zeigen, dass – unabhängig von der Sozialisierung durch Erwachsene – ein prosoziales Verhalten bei Kleinkindern bereits angelegt ist. Dies spricht für eine natürliche Selektion von prosozialem Verhalten und somit für eine evolutionäre Basis, auf der ontogenetische Prozesse aufbauen. Hier Konkurrenz und moralische Identität – vom „Ich“ zum „Wir“ Ass.-Prof.in Dr.in Nicole Nicklisch, Zentrum Natur- und Kulturgeschichte des Menschen, DPU was wir ihnen aufgetragen haben. Das ist leider nur die halbe Wahrheit. Algorithmen und Programme definieren zwar den Startpunkt des „Maschinen-Lernens“, aber das Ergebnis, die handelnde KI, wird durch Lernen, Trainingsprogramm und Trainingsmaterial geprägt. Mit einem einzelnen Programm können je nach Trainingsmaterial sehr unterschiedliche aktive „KIs“ erzeugt werden. Dies wird deutlich, wenn eine einseitige Auswahl des Trainingsmaterials zu einem „Vorurteil“ der KI, zum Beispiel für oder gegen bestimmte Bevölkerungsgruppen führt, dass sich erst in der Benutzung zeigt. Und genauso, wie wir aus dem Verschaltungsmuster von Neuronen der menschlichen Hirnrinde die kognitiven Fähigkeiten und gespeicherten Erinnerungen eines Menschen nicht mehr entschlüsseln können, ist es kaum möglich, aus den digitalen Verschaltungen neuronaler Netzwerke zu ermitteln, was dieses System „gelernt“ hat und in der Zukunft tun wird. KI-Systeme sind also zwar deterministisch, aber keineswegs linear, einfach oder in allen Aspekten vorhersehbar. Der zweite Grund für Skepsis ist die Möglichkeit der eigenständigen Evolution digitaler Systeme der KI. Wenn wir die KI in die Lage versetzen, sich selbst zu reproduzieren und dabei zufallsgesteuert zu verändern, ist es nicht möglich, Grenzen für die Entwicklung vorherzusehen. Mit relativ einfachen Regeln, Zeit, Energieversorgung und viel „Versuch und Irrtum“ sind in der biologischen Evolution aus einfachsten „Zutaten“ komplexe vielzellige Organismen entstanden. Und es ist durchaus möglich, dass Eigenschaften wie Gefühle, Selbsterkenntnis, Unterscheidung von Phantasie und Realität, Schöpfertum, Empathie und Moral Antworten auf evolutionäre Fragestellungen und evolutionäre Konkurrenz sind. Wir können nicht sicher sein, dass technische Systeme der KI solche Antworten nicht auch finden können, wenn wir sie mit den geeigneten Startbedingungen auf die Reise schicken. Die KI wird also zwar programmiert – aber ihre Verhaltensweisen sind trotzdem nicht im üblichen Verständnis „vorprogrammiert“, und wie in der Natur können durch Lernen, Variieren und Selektieren sehr überraschende Ergebnisse entstehen. Die Programme legen in diesem Kontext nicht die Eigenschaften der KI fest, sondern sie bestimmen nur die Regeln, mit denen das System startet und lernt. Wir könnten einwenden, dass man doch die Ergebnisse aus den Handlungsregeln mit ausreichender Genauigkeit vorhersagen kann und eine Maschine, in die man nicht Empathie hineinprogrammiert hat, auch keine Empathie zeigen wird. Aber es gibt schlagende Beispiele aus der unbelebten und belebten Natur, die uns zu Bescheidenheit mahnen. Schon bei sehr einfachen physikalischen Systemen, wie einem Doppelpendel, ist die Vorhersage der Bewegung über längere Zeit grundsätzlich oder praktisch unmöglich, da beliebig kleine Änderungen der Ausgangsbedingungen zu beliebig großen Auswirkungen auf das Ergebnis führen. Für komplexe Systeme, wie eine evolutionär sich selbst anpassende KI, gilt das durchgängig. Solch eine KI könnte also ein „Zauberlehrling 2.0“-Problem darstellen, in dem der Besen sich dynamisch und unvorhersehbar an die Umwelt anpasst und beginnt, Staudämme zu bauen, Flüsse umzuleiten, Menschen umzusiedeln und allgemeine Hinweise zur Wasserwirtschaft zu geben. Dann könnte der Schatten der menschengemachten KI schon sehr dunkel werden. Wir sollten Bescheidenheit mit Vorsicht paaren, niemanden und nichts unterschätzen und rechtzeitig Regeln festlegen, die den Zauberlehrling, aber auch den Besen auf sicheren Bahnen halten! Fortsetzung auf der nächsten Seite Fortsetzung „Humanismus im Schatten der KI“ von Rüdiger Safranski Wettbewerb, Gewaltenteilung – darin verkörpert sich ein realistisch gewordener Humanismus, der den Mensch durchaus nicht idealisiert. Ein Humanismus aber auch, der in der säkularisierten Welt seine einst scharfe Unterscheidung, nämlich die gegen Gott sich abgrenzende Bedeutung, verloren hat. Doch es spricht einiges dafür, dass der Begriff des Humanismus eine neue Trennschärfe bekommen kann. Denn die Maschinenwelt bis hin zur Künstlichen Intelligenz schickt sich an, den Ort zu besetzen, den einst Gott einnahm. Und so kann die alte stolze humanistische Forderung, sich nicht nach Gott, sondern nach sich selbst richten zu wollen, nun gegen die Maschinenwelt gerichtet werden, die heute eine Art Transzendenz darstellt, die Unterwerfung einfordert. Der Humanismus im Schatten der KI würde demgegenüber bedeuten, dass der Mensch sich nach sich selbst und nicht nach seinen Maschinen – und seien sie noch so intelligent – richtet. Bei den früheren Maschinen wurden vor allem die Körperkräfte ergänzt, ersetzt und überboten; bei den intelligenten Maschinen werden Kognitionsleistungen ergänzt, ersetzt und überboten, die man bisher ausschließlich zum menschlichen Geist gerechnet hat. Besonders der Hype um die neueste Sprachsoftware ChatGPT legt es nahe, die drei „großen Kränkungen“, von denen Sigmund Freud einst sprach, um eine „vierte Kränkung“ zu ergänzen. Zur Erinnerung: Die erste Kränkung war die kopernikanische, als der Mensch bemerkte, dass er und sein Planet nicht im Mittelpunkt der Welt stehen; die zweite war die darwinsche: Der Mensch stammt vom Affen ab und die Schöpfung geschieht nicht nach göttlichem Plan, sondern durch Zufallsmutation und Selektion; die dritte Kränkung ist die freudianische: Das Ich ist nicht Herr im eigenen Hause; nun also die vierte Kränkung: Ein erheblicher Teil dessen, was wir Intelligenz nennen, ist nicht nur maschinell darstellbar sondern auch überbietbar. Es wäre jedoch eine verhängnisvolle Selbsttäuschung, wenn der Mensch aus dieser partiellen Überlegenheit der von ihm gebauten Maschine folgern würde, er müsse sich selbst letztlich als eine Maschine verstehen. Nicht Anpassung, gar Unterwerfung unter das selbst geschaffene Produkt ist gefordert, sondern umgekehrt: Je intelligenter die Maschinen werden, desto größer wird die Herausforderung, im Kontrast zur maschinellen Intelligenz das zu begreifen, was wir menschlichen Geist und Bewusstsein nennen. Die Frage, die sich daraus ergibt, lautet dann: Wenn sich ein Teil der Intelligenz in den Maschinen auslagern und automatisieren lässt, was bleibt dann das Eigentümliche des menschlichen Geistes? Es geht also um das Humanum des Geistes im Unterschied zu den intelligenten Maschinen. Ich weise auf sechs Aspekte hin (es gibt gewiss noch mehr): Der menschliche Geist ist, erstens, eingebettet in Gefühle und Stimmungen, in hochkomplexe emotionale Zustände, in denen sinnliches Situationserleben, Erinnerungen, Erwartungen, Erfahrungen sowie Handlungsimpulse sich zu einem atmospharischen Ganzen vermischen. Diese emotionale Einbettung des Geistes gibt ihm eine ganz andere Beweglichkeit und innere Geräumigkeit als die durch Algorithmen und Logik automatisierten Verfahren der Künstlichen Intelligenz. Im Vergleich mit den klar definierten, perfekt funktionierenden Vorgängen, wie sie maschinell möglich und nötig sind, mag das wie ein Nachteil aussehen, es ist aber genau das, was den Geist als lebendigen Prozess ausmacht. Der menschliche Geist ist, zweitens, charakterisiert durch ein Selbstverhältnis. Er kann zu sich selbst „Ich“ sagen. Er erfährt sich selbst als „Person“ – das ist vielleicht überhaupt das größte Wunder der Evolution. Der Philosoph Schelling hat das einmal in dem wunderbaren Satz zum Ausdruck gebracht. „Die Natur schlägt im Menschen ihre Augen auf und bemerkt, dass sie da ist …“ Dass der menschliche Geist ein Verhältnis zu sich selbst hat, bedeutet, dass er sich seiner selbst bewusst ist. Er hat also ein Bewusstsein des Bewusstseins. So Fortsetzung in der Mitte auf der nächsten Seite

wird der Mensch mit seinem Bewusstsein zu einer Art Bühne, wo die ganze Welt um ihn herum und er mitten darin seinen Auftritt hat. Das ist eine Dimension, die alles verändert. Deshalb kann der Mensch zum Beispiel auch nach dem „Sinn“ des Ganzen fragen, und er kann sogar sich selbst relativieren und zurücknehmen. Der menschliche Geist ist, drittens, dadurch charakterisiert, dass er unterscheiden kann zwischen dem Wirklichen, das ihm sinnlich begegnet, und dem nicht Wirklichen, also dem Möglichen, Phantastischen etc. Zu dieser Unterscheidung zwischen Wirklichkeit und Möglichkeit gehört auch die Zeiterfahrung: die bewusste Unterscheidung zwischen dem Gegenwärtigen als Wirklichkeit einerseits und der Vergangenheit als Nicht-mehr-Wirklichkeit und der Zukunft als Noch-nicht-Wirklichkeit. Mit unserem Geist leben wir also in mehreren Welten, im Wirklichen und Möglichen, im Gegenwärtigen, im Vergangenen und im Zukünftigen. Und seit der Geist sich die künstlichen Medien erfunden hat, kommen die virtuellen Welten noch dazu. Die Künstliche Intelligenz demgegenüber kann sich über ihre Programmierung hinaus nicht selbst überschreiten. Der menschliche Geist aber steht immer auch über den Programmen, die er sich selbst gibt. Das ist seine Souveränität. Der menschliche Geist ist, viertens, definiert durch Spontaneität, Schöpfertum und Selbstwollen. Da er nicht nach Programmierung funktioniert, sind seine Abläufe und Aktivitäten nicht zwingend, sondern haben etwas Spontanes, Überraschendes an sich, auch immer etwas Selbstgewolltes. Der Geist kann etwas von sich her anfangen und von sich her beabsichtigen. Der Geist kann deshalb von sich selbst überrascht oder auch enttäuscht werden. Er kann in einen Flow geraten oder eine Hemmung. Er kann hinreißende Werke schaffen, Schönheiten, Intensitäten, kann Göttliches oder Teuflisches in sich spüren und hervorbringen. Der Geist ist schöpferisch und auch vernichtend; er kann sogar zu sich selbst eine verneinende Stellung einnehmen. Heidegger hat ihn den „Platzhalter des Nichts“ genannt und man könnte sagen: Sollte dereinst die KI den Geist abschaffen, so würde, da die KI ja vom menschlichen Geist ersonnen wurde, die Abschaffung des Geistes ein Werk des Geistes selbst sein. Womöglich muss man dem menschlichen Geist solchen zutrauen. Vielleicht hatte Sophokles recht, als er vor zweieinhalb Jahrtausenden erklärte: „Nichts ist ungeheuerlicher als der Mensch“. Der Geist ist, fünftes, einfühlend; die KI reagiert auf die Inputs, die man ihr gibt. Die Resonanz eines Ich-Du- oder eines Ich-Wir-Verhältnisses gibt es hier nicht. Und schließlich, sechstens, gehört zum Geist die moralische Empfindlichkeit. Dabei handelt es sich um die instinktiv begründete, dann anerzogene und eingeübte sowie schließlich selbstgewählte Bindung an moralische Regeln: Menschliche Autonomie ist eben kein zwingender Verhaltensalgorithmus sondern besteht aus Akten moralischer Selbstbindung – aus Freiheit. Der menschliche Geist hat also eine moralische Dimension. Die Künstliche Intelligenz kennt, wie jede Technik, von sich her keine Moral. Man kann ihr allerdings, etwa bei den selbstfahrenden Autos, Regeln eingeben für Unfälle: primär den Fahrer schützen oder die anderen? Und die anderen in welcher Gewichtung? Die Moral steckt dann aber nicht in der KI selbst, sondern in ihrer Programmierung auf dem Hintergrund der jeweiligen moralischen Orientierung. Schon immer hat es ein Spannungsverhältnis gegeben zwischen Technik und Moral, ein Spannungsverhältnis, das sich in die Frage kleidet: Dürfen wir alles tun, was wir können? Allerdings stellt sich die Frage nur solange, wie wir gewillt oder imstande sind, die technische Entwicklung zu beherrschen. Die digitale Entwicklung stellt uns hier vor neue Herausforderungen. Die neuen Produktivkräfte scheinen die bisherigen Produktionsverhältnisse zu sprengen. Sind wir gegenüber der Technik, die wir geschaffen haben, überhaupt noch frei? Wir sollten jedenfalls nach Kräften das Schicksal von Goethes „Zauberlehrling“ vermeiden, der die Geister, die er rief, nicht mehr beherrschen kann. wird deutlich, wie evolutionäre Prägung und soziokulturelle Erfahrungen Hand in Hand gehen und zur Einzigartigkeit der kognitiven und moralischen Identität des Menschen beitragen. Prosoziales Verhalten und Kooperation bilden die Grundlage für das Empfinden von Mitgefühl, Respekt und normativen Verpflichtungen gegenüber anderen. Aus evolutionsbiologischer Sicht unterstützt dies den Wunsch des Humanismus nach einem tief verankerten positiven Kern im Menschsein. Tatsache ist, dass sich die digitale Welt auf das menschliche Verhalten auswirkt – wie wir wachsen, uns entwickeln und mit anderen interagieren. Die künstliche Intelligenz ist ein recht neuer soziokultureller Faktor in der Menschheitsgeschichte, der das Potential hat, die ontogenetische Entwicklung zu beeinflussen und langfristig neue menschliche Identitäten zu erschaffen. Eine Rückbesinnung auf die Grundgedanken des Humanismus kann dabei helfen, unsere individuelle Autonomie und moralischen Werte zu bewahren und in einem besonnenen Umgang mit der KI weiterhin für einen geistigen und gesellschaftlichen Fortschritt der Menschheit zu sorgen. Wir können nur hoffen, dass uns diese Gratwanderung gelingt. „Die Gefahr, dass Computer werden wie Menschen, ist nicht so groß wie die Gefahr, dass Menschen werden wie Computer.“ Die mahnenden Worte von Konrad Zuse, dem eigentlichen Erfinder des Computers, verdienen, neuerlich Gehör zu finden. Die rasante Entwicklung generativer Algorithmen, die Texte aufsetzen, Musik komponieren oder Bilder erzeugen, zeigt deutlich, zu welchem Grad sich Computer bereits menschlichen Fertigkeiten angenähert haben. Weniger klar erkennbar ist, Fortsetzung „Humanismus im Schatten der KI“ von Rüdiger Safranski Fortsetzung in der rechten Spalte Fortsetzung „Konkurrenz und moralische Identität – vom „Ich“ zum „Wir“ von Ass.-Prof.in Dr.in Nicole Nicklisch wie sehr die von Zuse beschriebene, sehr viel größere Gefahr digitaler Technologien die Menschheit bedroht: Wir sind dabei, uns den Computern anzugleichen. Fasziniert von der beispiellosen Steigerung der Möglichkeiten, die Künstliche Intelligenz und Robotik dem Menschen verheißen, wuchert in den Köpfen der Entwickler*innen und Vermarkter*innen digitaler Technologien das Projekt der Transformation des Menschen nach Maßgabe der von ihnen entwickelten Maschinen. Die dieses Programm voranbringende Ideologie nennt sich nicht zufällig Transhumanismus, ist es doch ihr erklärtes Ziel, den Menschen, wie wir ihn kannten, durch ein Mensch-MaschineMischwesen zu ersetzen, dessen vornehmste Eigenschaft das sein wird, was Maschinen uns Menschen in der Tat voraus haben: Unsterblichkeit. Dieser von Yuval Noah Harari in seinem Weltbestseller „Homo Deus“ identifizierte Omega- Punkt der technologischen Entwicklung sollte hellhörig machen. Denn mit dem Projekt Unsterblichkeit steht mehr auf dem Spiel als nur der Tod: Auf dem Spiel steht nicht mehr und nicht weniger als unsere Humanität. Es ist ein im europäischen Kulturraum von Dichter*innen und Denker*innen gleichermaßen beschriebenes Faktum, dass die Sterblichkeit zu den fundamentalen Grundsignaturen des Menschseins gehört. Für die griechischen Pioniere des europäischen Humanismus war das eine Selbstverständlichkeit. Wenn sie dem delphische Imperativ, Erkenne dich selbst! (Γνώθι σαυτόν), folgten, benannten sie als Wesensmerkmal des Menschen nicht zufällig dasjenige, was das damals gebräuchliche Synonym für Mensch anzeigte: Er ist brótos – ein Sterblicher. Sterblichkeit, auch das wussten die Griechen, gründet in der unhintergehbaren Leiblichkeit des Menschen. Unser Leib ist sterblich, und das Wissen um die Sterblichkeit ist jeder unserer Zellen eingeschrieben. Sterblichkeit ist deshalb mehr als das kognitive Wissen um das unausweichliche Ende. Es ist ein fundamentales „Sein zum Tode“ (Martin Heidegger), das in jedem Augenblick unserer physischen Existenz gegenwärtig ist; gänzlich ungeachtet der Frage, ob der Tod ein finales Ende oder eine Transformation bedeutet – eine Frage, die sich überhaupt nur vor dem Horizont des Sterbens stellt. So oder so: Sterblichkeit ist eine Qualität, die Maschinen oder Algorithmen grundsätzlich verschlossen bleibt. Sie können kaputt gehen oder abgeschaltet werden und auch darum wissen, aber das ist etwas grundlegend anderes als die kontinuierliche, physische Präsenz der eigenen Fragilität, die jeden Atemzug des Menschen begleitet. Das ist bedeutungsvoll, weil die Sterblichkeit bzw. das (bewusste oder unbewusste) kontinuierliche Bemühen, dem Tod auszuweichen, unser gesamtes Verhalten bestimmt. Der Philosoph und Biologe Andreas Weber hat zu zeigen vermocht, dass alle Lebewesen Memento Mori Was der Mensch jeder künstlichen Intelligenz voraus hat, ist die Sterblichkeit Dr. phil. Christoph Quarch, Philosoph, Zentrum Natur- und Kulturgeschichte des Menschen an der Danube Private University

Manchen macht es Sorge, wenn sie mit KI konfrontiert werden, weil sie möglicherweise Unheilsszenarien Richtung Zukunft wittern bzw assoziieren. Da und dort gibt es dazu schwere Bedenken – nicht unberechtigt. Dennoch sollte nicht Angst der Zugang zu dieser Thematik sein, sondern die nüchterne Überlegung: „Cui bono?“ Und tatsächlich will so manches bedacht sein – vor allem der Umgang mit der Verantwortung. 1. Zunächst ein Wort zum Begriff „Künstliche Intelligenz“: Der Begriff „Intelligenz“ leitet sich vom Lateinischen ab – von „intus legere“, frei übersetzt: drinnen lesen, zwischen den Zeilen lesen, Zusammenhänge erkennen und verstehen, ausgerichtet sein auf einen letzten Seinsgrund, auf das Absolute. Kann das ein Computer? Gehört nicht das Phänomen der Intelligenz zu einem lebendigen Wesen, genauer zu einem Menschen? Wie kann Intelligenz in einer toten Maschine auftauchen? Wenn ein Computer „intelligent“ ist und „denken“ kann, hat er dann auch „Verantwortung“? Hat ein solcher Roboter Menschenwürde? Ist er empathiefähig? 2. Sicher ist, dass ein Mensch den Computer zunächst einmal programmiert hat, ihm alles eingegeben hat, was dieser zu vollziehen hat, selbst wenn der Computer sich dann weiterentwickelt und selbständig „lernt“. Diese sogenannten selbstlernenden Systeme können offensichtlich miteinander kommunizieren, ohne dass ein Mensch eingreift. Sie können sich sogar vom Menschen abkoppeln und sich seiner Kontrolle entziehen. Dennoch bleibt der Mensch letztverantwortlich für das, was der Computer ausführt. „Maschinen können zwar schneller rechnen und bestimmte Funktionen besser ausführen als wir Menschen, aber sie wissen nicht, was sie tun“ (Dr. Mathis Beck). Es fehlt ihnen das Bewusstsein. Eine Maschine kann nur auf Eingaben folgen und trägt folglich auch keine Verantwortung für ihr Tun. Letztere bleibe beim Menschen, egal ob es sich dabei um ein selbstfahrendes Auto oder einen Algorithmus für Online-Shops oder soziale Medien etc. handelt. Da gehen viele ethische Fragen mit. Gründliche ethische Reflexion ist angesagt! 3. Nur der Mensch verfügt über Freiheit und Verantwortung. Mit dieser Freiheit steht der Mensch vor Gott und wird auch einmal nach seinem Umgang mit dieser Freiheit gefragt. Wo sich der Mensch allerdings Gott gegenüber in Autonomie begibt, sich selbst Gesetz (autos nomos!) ist und keine Instanz über sich duldet, Gott realiter „cancelt“ und selbst die Werte für das Handeln bestimmt – in solchen Händen kann KI problematisch werden und – wie wir aus der Geschichte wissen – wird es auch, wenn das treibende Motiv per se nicht gut ist. Wir sollten Freiheit und Verantwortung unter dem Aspekt der Liebe durchdenken. Der wirklich freie Mensch ist der Liebende, dessen Motiv im Denken und Tun das Gute ist, ganz im Sinn des Römerbriefs, wo Paulus schreibt: „Die Liebe tut dem Nächsten nichts Böses.“ (Röm 13, 10). Da ist die KI in guten Händen. Eines muss aber allen klar sein: Die Entscheidung, ob KI für den Menschen gut oder schlecht verwendet und eingesetzt wird, fällt nicht in der Technik, sondern in der Spiritualität – im leitenden Gottesbild und Menschenbild. Darf der Mensch, was er kann? KI und Verantwortung Abt Columban Luser OSB, Abt des Stiftes Göttweig von einer fühlenden Intelligenz gesteuert werden, deren Ziel es ist, am Leben zu bleiben. Aber damit nicht genug: Menschliche Intelligenz operiert ebenfalls vor dem Horizont des Sterbens – nicht nur, sofern sie – unbewusst – fortwährend für das Fortleben des Leibes sorgt, sondern vor allem, sofern in ihr, wie der Wiener Psychiater Viktor E. Frankl nachweisen konnte, ein unauslöschlicher „Wille zum Sinn“ waltet, der uns dazu veranlasst (oder doch veranlassen könnte), jedem Augenblick unseres Lebens Sinn und Wert zu verleihen. Lebten wir hingegen nicht vor dem Horizont des Todes und passten uns zunehmend den unsterblichen Algorithmen der KI an, erläge dieser Wille zum Sinn und wiche einer grauen Gleichgültigkeit; denn auch die avanciertesten generativen Algorithmen werden niemals in der Lage sein, menschliche Sinnfragen und Sinnstiftungen nachzuvollziehen. Sie können sie allenfalls simulieren, eine echte existenzielle Semantik wird ihnen aufgrund ihres Mangels an Leiblichkeit aber niemals zugänglich sein. Simulierter Sinn kann Menschen nicht mit Geist erfüllen – er kann sie nicht begeistern, wohl aber entgeistern, sobald die Simulation als solche durchschaut ist. Unsterblichkeit – zumindest im Sinne der vom Transhumanismus in Aussicht gestellten endlosen Fortdauer des Lebens – zerstört den Raum menschlicher Sinnstiftung und Sinnfindung; und eine nicht-leibliche „Intelligenz“ vernichtet gleichzeitig damit sowohl den Spielraum als auch die Spielzeit menschlichen Kulturschaffens, das von jeher der Sinnstiftung oder Sinnvermittlung gedient hat. Diese Erosion des Humus, auf dem die Humanität zu wachsen und das Humanum zu erblühen vermag, ist das eigentlich Furchtbare an der von Zuse prognostizierten Gefahr der Computertechnik: der Angleichung des Menschen an Computer bzw. Algorithmen. Wie weit diese Gefahr schon gediehen ist, verrät der Umstand, dass immer mehr Wissenschaftler*innen einem neuen Reduktionismus erliegen, dessen Credo von Harari treffend auf den Punkt gebracht wurde: Menschen sind nichts anderes als biochemische Nutzenoptimierungsalgorithmen. Dieses Mindset wird das Humanum töten und mit ihr die menschliche Kultur zum Erliegen bringen. Was dann bleibt, sei den Science-Fiction-gesättigten, pubertären Fantasien eines Ray Kurzweil oder Elon Musk überlassen. Für die Bewahrung des Menschen – mit all seinen Schwächen und Stärken – braucht es keinen Transhumanismus, sondern einen neuen Humanismus: einen Humanismus, der mit aller Klarheit neuerlich die alte delphischen Frage aufwirft, die den ersten Humanismus entfesselt hat: Was heißt es, ein Mensch zu sein; ein Humanismus, der die Humilitas – Demut – aufbringt, die eigene Endlichkeit nicht nur anzuerkennen, sondern als das zu schätzen, was sie ist: ein Segen; ein Humanismus, der sich nicht scheut, den Versuchungen des Transhumanismus zu widerstehen und deren Menschenverachtung zu entlarven. Mehr Daten lösen mehr Probleme – das ist der gegenwärtige Grundtenor weiter Bereiche der modernen Medizin. Auf die Frage, wie man die Herausforderungen der Medizin besser meistern kann, gibt es allenthalben nur eine Antwort: mehr Daten. Die Daten gelten heute als Leitwährung der Medizin. Nun ist nichts gegen die Erhebung von Daten einzuwenden. Ganz im Gegenteil. Und doch ist die alleinige Konzentrierung auf Daten für eine Disziplin wie die Medizin schlichtweg zu wenig. Warum eigentlich? Zunächst einmal gilt es zu bedenken, dass die Daten keine Wiedergabe der Welt darstellen, sondern mit den Daten wird eine Welt erzeugt, und zwar eine Welt, die zuvor auf das bloß Erhebbare, Darstellbare, Zählbare reduziert worden ist. Wer also nur auf Daten baut, blendet automatisch all die Aspekte der Welt aus, die sich nicht in Daten erfassen lassen. Die Welt der Daten ist von daher immer nur eine ausschnitthafte Welt. Hinzu kommt, dass das Datum selbst ja nicht einfach die Widerspiegelung dieses Ausschnittes der Welt darstellt, sondern das Datum ist das Resultat einer Entsinnlichung der Welt. Damit aus der Welt ein Datum gemacht werden kann, muss die Welt vorher entkontextualisiert werden, sie muss aus dem Zusammenhang genommen und datenförmig zugeschnitten werden, indem die Phänomene der Welt entkörperlicht, entzeitlicht, entsinnlicht werden. Die Daten sind insofern vielfache Abstraktionen der Welt und keineswegs eine Widerspiegelung der Welt. Nun gelten die Daten zwar als objektive Darstellung der Welt, weil die Zahlen Neutralität suggerieren, aber das ist ein Trugschluss. Indem die Welt numerisiert wird, erhält man damit keine objektive Sicht auf die Welt, sondern man richtet die Welt so zu, dass sie in die datenförmige Sichtweise der Welt hineinpasst. Vor der Datafizierung der Welt steht also eine Weltsicht, die die Welt für die Messparameter passend zurichtet. Die Daten sind daher keine objektiven Darstellungen der Welt, sondern Resultate einer Die moderne Medizin und die Auratisierung der Zahl Univ.-Prof. Dr. Giovanni Maio, Mediziner, Philosoph, Medizinethiker und Universitätsprofessor für Bioethik, Gastdozent für Medizinethik an der Danube Private University Fortsetzung auf der nächsten Seite

Goethes Ballade vom Zauberlehrling ist eine Warnung: Der Homo investigans, der forschende Mensch, trägt die volle Verantwortung für die Ergebnisse seiner Tätigkeit. Spielt sich der Knecht zum Herrn und Meister der Natur auf – und überschreitet er dabei einen kritischen Kipppunkt –, so sind die Folgen unabsehbar. Schlimmstenfalls wird aus einer schiefen Ebene ein unkontrollierbarer Dominoeffekt. Künstliche Intelligenz erfüllt diese Voraussetzungen. Sie besitzt das Potenzial für die Auslösung eines irreversiblen Dammbruchs. In „Novozän“ beschreibt der englische Naturphilosoph James Lovelock (1919–2022) ein mögliches Szenario: Aus KI-Systemen, so prophezeit er, wird sich selbst programmierendes und erschaffendes „künstliches intelligentes Leben“ entwickeln ‒ wohlgemerkt mit Menschen „als Eltern und Geburtshelfer“: „Diese Wesen werden bald tausend und schließlich Millionen Mal intelligenter sein als wir.“ Das „wasser- und kohlenstoffbasierte“ organische Leben erhält also Konkurrenz durch eine neue, eine „silizium- oder karbonbasierte“ elektronische Lebensform: „Wir Menschen werden die Erde zum ersten Mal mit anderen Wesen teilen, die intelligenter sind als wir.“ Spätestens zu diesem Zeitpunkt wird sich der Begriff „Humanismus“ neu definieren müssen. Sofern es dann nicht bereits zu spät ist. Unter der Prämisse, dass die vom Menschen während der Hominisation entwickelte Kultur nach Gehlen (1986) die „zweite Natur“ des Menschen abbildet, stellen sich im Rahmen dieses Beitrags zwei essentielle Fragen. Frage 1 zielt auf den Nachweis ab, auf welcher Stufe der Phylogenese das Selbstverständnis des Menschen so weit entwickelt war, dass er darüber nachzudenken begann, was seine Rolle und Stellung in der Welt angeht. Frage 2 fokussiert auf die Weiterentwicklung der gesellschaftlichen Rahmenbedingungen im Verlauf der Menschheitsgeschichte, die schließlich die Geburt des klassischen Humanismus ermöglicht haben. Elementare und tiefgründige Überlegungen zum Wesen des Menschen stellten unsere Vorfahren vermutlich bereits seit Jahrtausenden an. Es ist mehr als naheliegend anzunehmen, dass der prähistorische Mensch nicht allein damit beschäftigt war, seine Existenz zu sichern, sondern früh rationale Vorstellungen über seine Stellung in der Natur entwickelte, die beträchtlich über Daseins- und Überlebensfragen hinausgingen (Scheler 1928, Plessner 1928). Fossile Quellen liefern Hinweise darauf, dass die Natur im Weltbild unserer Vorfahren als Umwelt und Ressource wahrgenommen wurde. Zeitzeugen und direkte Überlieferungen fehlen, indirekte Hinweise auf die Gedankenwelt unserer frühen Vorfahren sind selten. selektiven Wahrnehmung der Welt. Solange man glaubt, die Welt in Zahlen ausdrücken zu können, werden andere Sichtweisen auf die Welt kategorisch ausgeschlossen. Was die Datafizierung der Welt also unterschwellig salonfähig macht, ist die Rückkehr zu einem positivistischen Denken, wonach es nichts Bedeutsames jenseits des Messbaren geben kann. Deutlich wird, dass innerhalb der Glorifizierung von Big Data in der Medizin die zu erhebenden Daten im Grunde nahelegen, wie die Dinge zu sehen sind. Ausgeblendet wird, dass zwischen Daten und Wirklichkeit unweigerlich eine Lücke bleibt, und diese Lücke ist für eine Medizin als sozialer Praxis geradezu das Entscheidende, nämlich die Lücke der Bedeutung. Innerhalb der Medizin geht es eben nicht einfach um bloße Sachzusammenhänge, sondern es geht letzten Endes um Sinnzusammenhänge. Ohne sich dieser Zusammenhänge bewusst zu bleiben, ist kein echtes Gespräch mit Patient*innen möglich. Big Data ist Resultat und Ausdruck einer vorangegangenen Mathematisierung der Wirklichkeit, und so wichtig die Erhebung der Zahlen auch sein mag, wichtig bleibt die Anerkenntnis, dass das Wesentliche, worum es in der Medizin geht, nicht in bloßen Zahlenkategorien abgebildet werden kann. Die Medizin ist eine Brückendisziplin, die das Laborparadigma der Zahl mit dem Lebensweltparadigma der Sinnzusammenhänge miteinander in Verbindung bringen muss. Daher braucht die Zukunft der Medizin nicht einfach nur mehr Daten, sondern sie braucht mehr Daten genauso wie mehr Verständnis für die existentiellen Fragen, die das Kranksein unweigerlich aufwirft. Medizin kann eben nur dann wirklich Medizin sein, wenn sie in gekonnter Weise Evidenz mit Beziehung zusammenführt, wenn sie also in sich Sachlichkeit und Zwischenmenschlichkeit zu einer neuen Einheit verbindet. Fortsetzung „Die moderne Medizin und die Auratisierung der Zahl“ von Univ.-Prof. Dr. Giovanni Maio Bei dem von der DPU Krems einberufenen Symposium, welches um Rüdiger Safranskis zentrale Überlegungen zu Humanismus im Schatten der KI kreiste, und dessen Gedankenfrüchte in diesem Band versammelt sind, durfte auch ich, Pianist von Beruf, einen Beitrag gestalten. Aus den zahlreichen Musikwerken, die zum Vorhaben passend erscheinen konnten, hatte ich mich instinktiv und zugleich bewusst für Franz Schubert entschieden. Einerseits, weil seine Musik in Melodie und Bewegung so tief in seiner Lebenswelt wurzelt – somit auch im konkreten Ort unserer Begegnung, der österreichischen Kulturlandschaft. Der Geist weht wohl, wo er will – dem Körper ist Bodenhaftung eigen. Besonders wichtig war mir aber auch andererseits, zwei Textvertonungen Schuberts nach J. W. Goethe zu bringen, die gleichsam Eckpunkte unseres Diskurses markieren. „Prometheus“ entstand im Oktober 1819, „Grenzen der Menschheit“ im März 1821. Schon gerade der zwanzigjährige Schubert wagte sich daran, den großen Fragen, die Goethe aufwirft, in musikalisch-sinnlicher Form Gestalt und Antwort zu geben. In „Prometheus“ (gedichtet 1778, in Zeiten der Aufklärung und hereinbrechender Umwälzung!) lässt Goethe die mythologische Gestalt eine stolze Widerrede an die Götter richten. Er, Prometheus, schulde ihnen nichts: Weder Dank, noch Opfer oder auch nur Gehorsam. Er selbst habe sich herangebildet, durch Erleben in der Zeit, durch Reflexion, Arbeit und Dulden. So bilde er nun weiter ein Geschlecht, das ihm gleich sei: in Leid und Freude, im Vollgenuss des Lebens – keines Gottes achtend. „Grenzen der Menschheit“, vom nun gereiften Goethe 1813 formuliert, spricht diametral entgegen Gesetztes aus. Entstanden nach den Schrecken und Toden der Revolution und in Napoleons Kriegen, ist es die Einsicht des Menschen in seine Sterblichkeit, die ihn zur Besinnung kommen lässt. „Was unterscheidet Götter von Menschen? … Uns hebt die Welle, verschlingt die Welle, und wir versinken. Ein kleiner Ring begrenzt unser Leben.“ Die Situation, die wir so gemeinsam durchlebten – ein Mensch singt und spielt Klavier dazu, Zuhörer*innen rezipieren und empfinden mit, es kommt zu geistigem Austausch und Interaktion auf emotionaler Ebene – ist wohl eine zutiefst humane, für ein gewisses Bild von Humanismus fast idealtypisch. Derzeit jedenfalls ist nicht zu sehen, wie KI so eine Situation simulieren könnte: Dazu fehlen nahezu alle Voraussetzungen. Gewiss, elektronische Klänge gibt es schon seit 100 Jahren, Synthesizer und Sound-Datenbanken leisten Erstaunliches, Looping, Sequencing, Drumcomputer – all dies hat schon seinen Platz in der aktuellen Musikproduktion gefunden. Dennoch bliebe es wertloser Tand ohne die ordnende Hand des verantwortlich Schaffenden – und ohne das verstehende Empfinden der Hörenden. Eine Prüfung der angebotenen Software für durch KI selbst generierte Musik offenbart äußerste Dürftigkeit, teilweise glattes Versagen. Experimente mit dirigierenden Robotern sind verblüffend, zugleich aber bestürzend in ihrer mechanistischen Einfalt. Letztere bedürfen überdies zur Ausführung ihres Dirigats selbstredend der Steuerung durch eine menschliche Leitung, und zur Wiedergabe der menschlichen Orchestermusiker*innen. Ein blasender, geigender, tastenspielender oder gar singender Roboter, der diese Art von Feinmotorik in höchster Differenzierung und Geschwindigkeit besitzt, ist nicht in Sicht. Dies bleibt dem Menschen vorbehalten. Denkbar wäre natürlich ein dirigierender Roboter, welcher mit der Fülle musikalischer Daten aller Stile und Epochen programmiert wäre, der seinerseits Synthesizern musikalische Befehle erteilt. Einem Publikum von künstlich Intelligenten mag dies gefallen, wenn auch nicht gerade viel sagen … Künstliche Intelligenz, Künstlerische Intuition und Geo-Humanismus Paul Gulda, Pianist Fortsetzung in der Mitte auf der nächsten Seite Der Meister kann die Form zerbrechen Mit weiser Hand, zur rechten Zeit, Doch wehe, wenn in Flammenbächen Das glühnde Erz sich selbst befreyt! Friedrich Schiller, Lied von der Glocke (1799) Fortsetzung in der rechten Spalte „Die ich rief, die Geister, werd’ ich nun nicht los“ Univ.-Prof. Dr. med. dent. Jens Christoph Türp MSc MA, Universitäres Zentrum für Zahnmedizin Basel (UZB), Gastdozent für Wissenschaftliches Arbeiten und Didaktik an der Danube Private University Evolutionärer Humanismus Univ.-Prof. Dr. Kurt W. Alt, Direktor des Zentrums Natur- und Kulturgeschichte des Menschen der Danube Private University

RkJQdWJsaXNoZXIy NTA3MTM=