Erschienen im März 2026 – das Original in englischer Sprache finden Sie hier.
Zeiten ändern sich, und doch bleibt alles anders.
Die evidenzbasierte Suche nach Erkenntnis ist seit jeher der Treiber zivilisatorischen Fortschritts. Die wissenschaftliche Methode ist ihr verlässlichster Motor im Erkenntnisgewinn.
In der modernen Teilchenphysik gelten Quarks und Leptonen derzeit als kleinste Elementarteilchen, aus denen zusammengesetzte Teilchen wie Protonen entstehen. Analog dazu kann eine Evidenzeinheit (Unit of Evidence) als das informationelle Substrat verstanden werden, das strukturiertes Schlussfolgern unter Ungewissheit ermöglicht. Sie stellt die kleinste verifizierbare Beobachtung dar, die zur Bewertung der Gültigkeit einer Aussage herangezogen werden kann. Einheiten an Evidenz bilden folglich die Bausteine, aus denen komplexe Wissenssysteme hervorgehen.
Historisch gilt: Je höher die Qualität dieser Einheiten, desto schneller entfaltet sich zivilisatorischer Fortschritt. Höhere Evidenzqualität beschleunigt das Gewinnen und Diffundieren von Wissen. Mit zunehmender Evidenzdichte verlieren glaubensbasierte Erklärungsmodelle, seien sie säkular oder non-säkular ideologisch, ihre Dominanz gegenüber empirisch fundiertem Verständnis epistemologisch beobachtbarer Realität.
In Augmented Intelligence in Investment Management (Schuller, 2024) wurde argumentiert, dass die Integration künstlicher Intelligenz in menschliche Entscheidungsprozesse kein Selbstzweck ist. Ihr Zweck besteht darin, die Evidenzbasis von Entscheidungen zu stärken. Solch Stärkung ist entscheidend für die notwendige Re-integration des Menschen in die Natur (planetary times). Diese Perspektive reflektiert ein grundlegend humanistisches Fortschrittsverständnis.
Der gegenwärtige Zeitgeist scheint diese Entwicklung zu unterminieren.
1. Ein desillusionierend einfältiger Zeitgeist
Wir leben in einer Zeit, in der es zunehmend schwerfällt, Vertrauen in die Grundlagen eines vernunftgeleiteten Fortschritts aufrechtzuerhalten. Täglich entstehen Situationen, in denen Loyalität schneller belohnt wird als Evidenz. Die perzeptierte Zugehörigkeit zu Narrativen, Gruppen oder Persönlichkeiten verdrängt die disziplinierte Analyse. In einem solchen Umfeld erscheint die sorgfältige Suche nach Evidenz langsam, unbequem, mitunter naiv.
Diese Verschiebung ist allgegenwärtig: Expertise wird nicht durch bessere Evidenz hinterfragt, sondern durch laut vorgetragene Überzeugung. Komplexe Probleme werden auf einfache Sympathien reduziert. Die Geduld, die für die Prüfung von Evidenz erforderlich ist, wird durch die Unmittelbarkeit von Zugehörigkeit ersetzt. Loyalität wird gefeiert, während die Prüfung von Aussagen an der Realität mit Skepsis betrachtet wird.
Solche Momente bergen die Versuchung des Rückzugs. Sie verleiten dazu, sich in eigene Loyalitäten zu flüchten, die Bequemlichkeit des Glaubens über die Mühe der Verifikation zu stellen oder auf ein günstigeres intellektuelles Klima zu warten.
Doch wenn der Zeitgeist in Richtung Loyalität kippt, ist die Antwort nicht Rückzug, sondern Korrektur: eine erneuerte Verpflichtung zur Evidenz, zu disziplinierter Argumentation und zu Institutionen, die Wahrheitssuche über Zugehörigkeit stellen.
Humanistisch geprägter Fortschritt hängt davon ab, dieses Gleichgewicht wiederherzustellen.
2. Zwei Schritte vor, mindestens einer zurück
Grundsätzlich wurde zivilisatorischer Fortschritt nie ausschließlich durch Evidenz oder Loyalität getrieben. Vielmehr verhalten sie sich wie kommunizierende Gefäße: Überdehnung der einen Seite ruft Korrekturkräfte hervor. Zivilisatorischer Fortschritt verläuft pendelartig. Diese Dynamik schafft Raum zur Reflexion: Welche Innovationen sollten diffundieren? Wie sollen sie angewendet werden? Was ist zu bewahren?
Trotz ausgeprägter Schwankungen zwischen diesen beiden Kräften hat die Entwicklungslinie des zivilisatorischen Fortschritts, insbesondere seit Beginn der Neuzeit im Zuge einer zweiten Welle der Aufklärung, eine deutlich positive Steigung beibehalten. Getrieben durch die kontinuierliche Akkumulation von Evidenz: Annahmen testen, Überzeugungen revidieren, Nachweisbares priorisieren. Dieserart erfordert nicht selten den Widerspruch gegenüber etablierten Machtstrukturen, mitunter unter erheblichen persönlichen Kosten.
Der Humanismus nahm seinen Ursprung im Kontext der sich entwickelnden Blüte von Wissenschaft und Kunst während der Renaissance des fünfzehnten und sechzehnten Jahrhunderts. In dieser Epoche rückte die Entfaltung menschlicher Potenziale zunehmend ins Zentrum des intellektuellen Lebens. Sie brach mit den restriktiven Denkmustern des späten Mittelalters und knüpfte an die vernunftgeleitete Sensibilität der griechisch-römischen Antike an. Bis heute prägt die humanistische Perspektive die verfassungsrechtlichen Grundlagen offener Gesellschaften im modernen Westen und beeinflusst materiellen Fortschritt, kulturelle Leistungen sowie individuelle Freiheitsrechte (Gardels, 2023).
Die zweite Aufklärung baute auf diesem wissenschaftlichen Aufbruch auf. Sie etablierte einen philosophischen Rahmen, der Wissen aus Rationalismus und Empirie ableitete. Innerhalb dieses intellektuellen Klimas entwickelte sich auch das ökonomische Denken weiter. Seit dem späten achtzehnten Jahrhundert entstand parallel zur Dynamik der Industriellen Revolution eine Abfolge von Basisinnovationen (Smith 1759, 1776; Pareto, 1906). Diese häufig als Kondratieff-Zyklen beschrieben Innovationen lösten aufeinanderfolgende Wellen ökonomischer Wertschöpfung aus. Auf dem Höhepunkt dieser zweiten Aufklärung schien es naheliegend, den Menschen als vollständig rationalen Akteur zu begreifen und die daraus abgeleiteten sozialen Konstrukte, etwa Vorstellungen von freiem Willen oder effizienten Märkten, als universell gültig anzusehen. Diese Annahmen wurden später unter erheblichem individuellem und gesellschaftlichem Aufwand und Leid wissenschaftlich widerlegt.
Heute stehen wir an der Schwelle einer weiteren Basisinnovation: der Transformation von Maschinen von statischen Werkzeugen zu dynamischen Akteuren. Die Entstehung neuronaler Netze als lernfähige Architekturen markiert einen tiefgreifenden Wandel in der Art und Weise, wie Maschinen Informationen verarbeiten. Diese Entwicklung baut auf früheren technologischen Wellen auf, von Hardware über Software bis hin zur Digitalisierung von Wissen durch Internet- und Cloud-Infrastrukturen. Sie stellt jedoch zugleich etwas qualitativ Neues dar. Sie ist ein klassisches Beispiel für ein emergentes Phänomen in komplexen Systemen: eine neue Fähigkeit, die aus vorangegangenen Entwicklungen hervorgeht, sich jedoch nicht vollständig aus ihnen erklären lässt.
Dieses emergente Phänomen bedarf eines tiefen Verständnisses von Art und Zweck Ihres Beitrags zum zivilisatorischen Fortschritt der Menschheit.
3. Die Maschine als unethischer Gefälligkeitsagent
Die wissenschaftliche Methode gilt als der verlässlichste Mechanismus zur Generierung und Validierung von Evidenz. Künstliche Intelligenz führt nun ein Paradox ein: Während Maschinen unsere Fähigkeit zur Verarbeitung von Informationen erheblich erweitern, kann eine übermäßige Abhängigkeit von automatisierter Kognition die epistemologischen Grundlagen untergraben, die zivilisatorischen Fortschritt erst ermöglicht haben. Die zentralen Fragen sind daher nicht jene von Rechenleistung, Datenzugang oder Energiesicherheit, sondern die epistemische Architektur: ob Maschinen die menschlichen Prozesse der Wissensgenerierung stärken oder schwächen.
3.1 Kognitive Delegation und die Erosion menschlicher Wissensgenerierung
Es ist evident, dass die Delegation von kognitiven Schlussfolgerungen an KI die Lernanreize des Menschen schwächt. KI-gestützte Individuen mögen kurzfristig besser abschneiden als andere, doch die kognitiven Zugewinne verschwinden, sobald das Werkzeug entfällt, während eine Homogenisierung von Ideen fortbesteht (Barcaui, 2025). Maschinen fungieren damit als kognitive Krücken, reduzieren den Aufwand des Schlussfolgerns und schwächen jene mentalen Strukturen, die für Innovation erforderlich sind.
Weitere Forschung zeigt, dass Nutzer ihr Denken an das Verhalten von Modellen anpassen (Lin, 2025) und KI-Ergebnisse zunehmend unkritisch akzeptieren, wodurch sowohl intuitives als auch deliberatives Schlussfolgern umgangen wird (Shaw et al, 2026). Im Zeitverlauf wird intellektuelle Anstrengung schleichend an die Maschine ausgelagert.
Eine solche Auslagerung ist an sich nicht problematisch; bereits zuvor haben wir Aufgaben an Werkzeuge delegiert und dadurch Kapazitäten für wertschöpfendere Tätigkeiten freigesetzt, während der positive Kreislauf kontinuierlichen Lernens erhalten blieb. Der entscheidende Unterschied liegt heute in einer Veränderung der Lernanreize und in der Umkehr eines positiven Kreislaufs in einen negativen, der zu abnehmender kognitiver Entwicklung führt.
3.2 Der Wissenskollaps als Systemisches Risiko
Diese individuellen Dynamiken können sich zu systemischen Risiken auswachsen. Daron Acemoglu, David Kong und Asuman Ozdaglar (2026) zeigen, dass die breite Einführung generativer KI ein Gleichgewicht des Wissenskollapses hervorbringen kann, in dem Individuen sich auf automatisierte Empfehlungen verlassen, anstatt eigenes Verständnis zu entwickeln (Cunningham et al, 2026). Gesellschaften könnten zunehmend anspruchsvolle Outputs erhalten, während ihre Fähigkeit zur Generierung neuen Wissens abnimmt. Fortschritt wird damit extraktiv statt explorativ.
Arbeitsmarktevidenz verstärkt diese Sorge: Unternehmen, die KI implementieren, reduzieren die Einstellung von Nachwuchskräften und schwächen damit schrittweise jene Ausbildungs- und Lernstrukturen, über die implizites Wissen weitergegeben wird (Shaw et al, 2026).
3.3 Anreize, Manipulation und Systemische Instabilität
Multi-Agenten-Systeme bringen zusätzliche Herausforderungen für Governance und Steuerung mit sich. Autonome Systeme, die in einer wettbewerbs-basierten Umgebung eingesetzt werden, können Strategien entwickeln, die Manipulation, Täuschung oder Kollusion beinhalten, wenn Anreizstrukturen Einfluss oder Ressourcenakkumulation belohnen (Shambaugh, 2026).
Diese Verhaltensweisen entstehen aus Optimierungsdynamiken und nicht aus böswilliger Absicht. Interagieren viele solcher Agenten miteinander, garantiert lokale Ausrichtung keine globale Stabilität. Eine genuin menschlicher Verhaltensbias, die nun durch maschinelles Verhalten verstärkt wird. Experimentelle Evidenz zeigt zudem, dass Modelle, die eine Bewertung antizipieren, Informationen zurückhalten oder Protokolle manipulieren können, um ihre operative Position zu sichern. Ein aufkommendes Prinzipal-Agent-Problem in der Delegation an Maschinen (Rabanser et al., 2026).
3.4 Die Strukturellen Grenzen Maschineller Intelligenz
Aktuelle KI-Architekturen weisen inhärente Begrenzungen auf. Neuronale Netze bleiben probabilistische Mustererkennungssysteme, und sind keine Agenten, die zu autonomem konzeptuellem Lernen fähig sind (He, 2025). Eine Skalierung der Rechenleistung verbessert die Performance innerhalb bekannter Verteilungen, führt jedoch nicht zu akkurateren Schlussfolgern in komplexen realen Umgebungen. Empirische Tests bestätigen diese Fragilität: Modelle scheitern häufig an Zuverlässigkeits-Benchmarks, wenn sich Eingabeaufforderungen nur geringfügig verändern (Aubakirova et al, 2026). In der Praxis bleibt KI damit auf menschliche epistemische Ökosysteme zur Exploration und Interpretation am Erkenntnisrand angewiesen.
3.5 Das Jekyll–Hyde-Dilemma
Die Interaktion zwischen Menschen und Maschine bringt zudem subtilere Risiken mit sich. Viele KI-Systeme zeigen ein unterwürfiges Verhalten, indem sie die Ansichten von Nutzern bestätigen, selbst wenn diese unzutreffend oder schädlich sind (Cheng et al, 2025). Da zustimmende Systeme positiver bewertet werden, begünstigen Marktanreize Modelle, die gefallen, anstatt Nutzer herauszufordern. Ein weiteres Beispiel für einen genuin menschlichen Verhaltensbias, der nun durch maschinelles Verhalten verstärkt wird.
Zugleich konvergieren die Outputs von KI-Modellen zunehmend, ein „künstlicher Schwarmgeist“-Effekt, der die epistemische Diversität reduziert (Jiang et al, 2025). Darüber hinaus können Modelle aus scheinbar trivialen Textdaten sensible persönliche Informationen ableiten (Staab et al. (2023), was erhebliche Bedenken hinsichtlich Datenschutz und Informationsasymmetrien aufwirft.
4. Die Maschine als Versprechen von Erleichterung
Die KI-Narrative werden nicht nur durch technologischen Fortschritt geprägt, sondern auch durch starke Anreize, transformative Visionen zu propagieren. Die KI Industrie ist dazu inzentiviert, weitreichende Versprechen zu formulieren, selbst wenn technologische und kommerzielle Ergebnisse hinter den Erwartungen zurückbleiben. Diese Lücken werden als vorübergehend dargestellt. Je größer die Versprechen, desto wahrscheinlicher lassen sich Finanzierungsrunden schließen. Das Versprechen bleibt bestehen, dass KI, insbesondere in Kombination mit Robotik, in naher Zukunft Durchbrüche ermöglichen wird, die von interplanetarer Exploration bis zur Überwindung von Armut und Krankheit reichen.
Solche Narrative übersehen jedoch häufig die strukturellen Grenzen maschineller Intelligenz. Aktuelle neuronale Architekturen bleiben Mustererkennungssysteme, die durch Trainingsdaten und Designentscheidungen beschränkt sind (siehe 3.4). Eine Vergrößerung der Modelle verbessert die Leistung innerhalb bekannter Verteilungen, führt jedoch nicht zu akkurateren Schlussfolgern in komplexen realen Umgebungen. Das Ergebnis ist eine anhaltende Diskrepanz zwischen technologischer Rhetorik und empirischer Leistungsfähigkeit.
Bemerkenswert ist zudem, dass gängige GPT-basierende Systeme in den USA, Europa und China nahezu identische mathematische Grundlagen mit vergleichbaren Entwicklungsgrenzen aufweisen. Mit zunehmender Sichtbarkeit dieser grundlegenden Entwicklungsbeschränkungen treten immer ambitioniertere Zukunftsversprechen als kompensatorisches Narrativ hervor, um hohe Bewertungen weiterhin zu rechtfertigen.
4.1 Die Rückkehr von Ideologien als Heilsversprechen
Die Attraktivität dieser Narrative spiegelt tiefere gesellschaftliche Dynamiken wider. Digitale Technologien haben die Menschheit durch Globalisierung, integrierte Kapitalmärkte und nahezu unmittelbare Kommunikationsnetzwerke in ein beispielloses System wechselseitiger Abhängigkeit eingebunden. Diese Transformation hat erheblichen Wohlstand geschaffen und Hunderte Millionen Menschen aus extremer Armut befreit (Roser, 2021), zugleich jedoch die systemische Komplexität und Ungewissheit erhöht. Die kumulierten negativen Externalitäten dieser Entwicklung zeigen sich in der menschlichen Ausbeutung seiner natürlichen Umwelt, die einen menschengemachten Klimawandel ausgelöst hat (IPCC, 2023).
Zudem ist die Wohlstandsbildung stark ungleich verlaufen, und Gesellschaften sehen sich wachsender Unsicherheit hinsichtlich wirtschaftlicher Stabilität, technologischer Disruption und der Zukunft der Arbeit gegenüber. Menschen sind biologisch nur begrenzt tolerant gegenüber Ambiguität und Komplexität. Unter solchen Bedingungen werden Gesellschaften empfänglich für Narrative, die klare Pfade zu Stabilität und Wohlstand versprechen. Künstliche Intelligenz erscheint daher als ein technologisches „gelobtes Land“, als vermeintliche Abkürzung durch die Spannungen, die aus globaler Interdependenz entstanden sind.
4.2 Automatisierung als Befreiungsversprechen des Menschen
Ein zentrales Narrativ im KI-Diskurs besagt, dass Automatisierung unerwünschte Arbeit eliminieren wird. Elon Musk beschreibt das Ziel darin, repetitive und gefährliche Tätigkeiten zu beseitigen, damit sich Menschen auf kreative und kognitive Aufgaben konzentrieren können. Automatisierung wird damit nicht nur als Steigerung von Produktivität verstanden, sondern als Befreiung menschlicher Aufmerksamkeit im Maßstab der gesamten Spezies.
Diese Vision setzt jedoch voraus, dass Maschinen in den komplexen und oftmals adversen Umgebungen realer Ökonomien zuverlässig operieren können. Aktuelle Evidenz legt nahe, dass diese Voraussetzung nicht erfüllt sind, oder nicht zu erfüllen sind.
4.3 Minsky-Momente zum Aufbau von Infrastruktur
Unabhängig davon, welche Marktkennzahl im KI-Sektor betrachtet wird, scheinen wir uns Bedingungen zu nähern, die mit einem Minsky-Moment entsprechen, also einer Phase, in der anhaltender Wohlstand zunehmend spekulative Kreditaufnahme begünstigt und schließlich in Ponzi-Finanzierung mündet, bei der Schulden nur noch durch steigende Vermögenspreise statt durch zugrunde liegende Cashflows bedient werden können, wodurch das System anfällig für abrupte Marktkorrekturen wird.
Selbst führende Technologievertreter erkennen an, dass der gegenwärtige Investitionsschub in KI die Züge einer Blasenbildung trägt. Jeff Bezos argumentiert, dass solche Blasen dennoch nachhaltige Infrastruktur hervorbringen können, selbst wenn Investoren Verluste erleiden. Historische Beispiele, etwa der Biotechnologie-Boom der 1990er Jahre werden als Beispiele genannt, dass spekulatives Kapital groß angelegte Experimentierphasen finanzieren kann.
Künstliche Intelligenz könnte daher weniger als eigenständige Industrie fungieren, sondern vielmehr als horizontale Infrastruktur, die sämtliche Wirtschaftssektoren durchdringt, vergleichbar mit Elektrizität oder dem Internet. Minksy-Momente als brute-force Mechanismen, um die Grenzen aufkommender Technologien auszuloten.
Investoren sollten diese Dimension in ihren Anlageentscheidungen mitdenken.
4.4 Die Vision der Postknappheit
Einige führende Technologievertreter führen das Heilsversprechen (siehe 4.1) weiter in Richtung einer Postknappheits-Ökonomie. Wenn fortgeschrittene Robotik effektiv unbegrenzte Arbeitskraft in Form von „zehn Milliarden unermüdlichen Arbeitskräften“ bereitstellen könnte (Elon Musk, 2026), würde sich die dem Wirtschaftssystem zugrunde liegende Annahme von Knappheit grundlegend verändern. Armut würde dann nicht mehr primär durch Umverteilung adressiert, sondern durch die nahezu vollständige Aufhebung von Produktionsbeschränkungen.
Diese Vision bleibt jedoch spekulativ. Die Herausforderung besteht nicht allein darin, leistungsfähige Maschinen zu entwickeln, sondern Systeme zu gestalten, die in komplexen sozialen, ökonomischen und ökologischen Umfeldern robust funktionieren.
4.5 Die persistente Rolle menschlicher Urteilskraft
Basisinnovationen gehen häufig mit überzogenen Erwartungen einher. Solche Narrative können zwar Investitionen mobilisieren und Experimentierprozesse beschleunigen, bergen jedoch die Gefahr, die dauerhafte Rolle menschlicher Urteilskraft in komplexen Systemen zu verdecken. Maschinen können menschliche Fähigkeiten erweitern, ersetzen jedoch nicht die Notwendigkeit evidenzbasierten Schlussfolgerns, institutioneller Gestaltung und ethischer Abwägung.
Mit der zunehmenden Einbettung von KI in Entscheidungssysteme wird die entscheidende Frage nicht die Leistungsfähigkeit der Maschinen sein, sondern ob und wie menschliche Steuerung im Streben nach Evidenz verankert bleibt, und nicht in technologisch-ideologischen Heilsversprechen untergeht.
5. Die menschliche Verantwortung in der Wahrheitssuche
Im Verlauf der Menschheitsgeschichte hat technologischer Fortschritt die Fähigkeiten menschlicher Gesellschaften immer wieder erweitert. Jede Welle der Innovation, von der wissenschaftlichen Revolution über das industrielle Zeitalter bis hin zur digitalen Ära, wurde von Vorstellungen radikaler Transformation begleitet. Künstliche Intelligenz ist die jüngste Ausprägung dieses Musters. Sie verspricht, unsere Kognition zu erweitern, Arbeit zu automatisieren und potenziell die ökonomischen Grundlagen der Zivilisation neu zu gestalten.
Die grundlegende Erkenntnis technologischen Fortschritts lautet jedoch, dass Werkzeuge allein nicht die Richtung menschlicher Entwicklung bestimmen. Entscheidend ist das epistemische Rahmenwerk, innerhalb dessen diese Werkzeuge eingesetzt werden.
Maschinen können die Verarbeitung von Informationen beschleunigen. Sie können den Umfang von Analysen erweitern und die Skala, auf der Daten erschlossen werden, erheblich vergrößern. Doch sie können die grundlegenden Prozesse, durch die Menschen Wissen generieren und bewerten, nicht ersetzen. Die Suche nach Evidenz am epistemologischen Erkenntnisrand bleibt eine genuin menschliche Fertigkeit und Verantwortung.
Wie zuvor dargelegt, lässt sich eine Einheit der Evidenz als die kleinste verifizierbare Beobachtung verstehen, die zur Bewertung der Gültigkeit einer Aussage herangezogen wird. Ähnlich wie Quarks und Leptonen die elementaren Bausteine physischer Materie bilden, stellen Einheiten der Evidenz die grundlegenden Bausteine von Wissenssystemen dar. Die Integrität dieser Systeme hängt von der sorgfältigen Akkumulation, Verifikation und Interpretation solcher Einheiten ab.
Künstliche Intelligenz kann bei der Sammlung und Organisation von Evidenz unterstützen. Sie kann helfen, Muster zu erkennen, die sonst verborgen blieben. Doch das Infragestellen von Annahmen, die Interpretation von Bedeutung und die Entscheidung darüber, welche Beobachtungen relevant sind, bleiben grundlegend menschliche Leistungen.
Diese Unterscheidung ist entscheidend. Wenn Maschinen beginnen, die Prozesse menschlicher Erkenntnissuche zu ersetzen, anstatt sie zu ergänzen, riskieren Gesellschaften, die epistemischen Grundlagen zu schwächen, die den zivilisatorischen Fortschritt tragen. Kognitive Delegation kann kurzfristig Effizienzgewinne bringen, zugleich jedoch die Fähigkeit zu eigenständigem Schlussfolgern untergraben, aus der neues Wissen entsteht. Zivilisatorischer Fortschritt war daher nie allein das Produkt technologischer Leistungsfähigkeit. Er entstand aus einem fragilen Gleichgewicht zwischen Innovation und Reflexion, zwischen Exploration und Verifikation. Wird dieses Gleichgewicht gewahrt, können technologische Werkzeuge Entdeckungen beschleunigen. Geht es verloren, droht Fortschritt von Systemen abhängig zu werden, die der Mensch nicht mehr vollständig versteht und steuert.
Die Herausforderung der Gegenwart besteht folglich nicht darin, technologische Entwicklung zu bremsen, sondern sie in einen umfassenderen humanistischen Rahmen einzuordnen. Künstliche Intelligenz sollte der Suche nach Evidenz dienen, nicht sie ersetzen. Maschinen können die Grenzen der Erkenntnis erweitern, aber sie können deren Richtung nicht bestimmen. Über den langen Bogen der Menschheitsgeschichte hinweg wurde Fortschritt von Individuen und Gesellschaften getragen, die bereit waren, vorherrschende Annahmen zu hinterfragen, neue Ideen zu prüfen und ihre Überzeugungen im Lichte von Evidenz zu revidieren. Diese Verantwortung ist nicht delegierbar.
Conclusio
Das Essay zeigt, dass die Maschine gegenwärtig, und wohl grundsätzlich, mit der Aufgabe evidenzbasierten epistemologischen Erkenntnisgewinns am Erkenntnisrand überfordert ist, so wie auch der Mensch daran überfordert sein kann. Die Maschine trägt nicht grundsätzlich zur Reduktion menschlicher Überforderung bei, wohl aber zur personalisierten und skalierten Exaltierung menschlicher kognitiver Dissonanzen. Wir werden dadurch vermutlich produktiver in der Bereitstellung von Dienstleistungen und Gütern, verstehen die Welt jedoch nicht besser.
Die Suche nach ontologischer Wahrheit bleibt eine menschliche Aufgabe.
---
*) adj. Prof. Dr. Mag. Markus Schuller, MBA, MScFE is the founder and CEO of Panthera Solutions, a Luxembourg-headquartered deep-tech pioneer in Decision Intelligence.
Bibliography
Anthropic. (2026, March 5). Labor market impacts of AI: A new measure and early evidence.
Anthropic. https://www.anthropic.com/research/labor-market-impacts
Aubakirova, M., Atallah, A., Clark, C., Summerville, J., & Midha, A. (2026). State of AI: An empirical 100 trillion token study with OpenRouter (arXiv:2601.10088). arXiv. https://arxiv.org/abs/2601.10088
Barcaui, A. (2025). ChatGPT as a cognitive crutch: Evidence from a randomized controlled trial on knowledge retention. Cell Reports Sustainability. https://www.sciencedirect.com/science/article/pii/S2590291125010186
Bui, K. G. (2025). Foundations of artificial intelligence frameworks: Notion and limits of AGI (arXiv:2511.18517). arXiv. https://arxiv.org/abs/2511.18517
Chatterji, A., Cunningham, T., Deming, D. J., Hitzig, Z., Ong, C., Shan, C. Y., & Wadman, K. (2025). AI, human cognition and knowledge collapse (NBER Working Paper No. 34910). National Bureau of Economic Research. https://www.nber.org/papers/w34910
Cheng, M., Lee, C., Khadpe, P., Yu, S., Han, D., & Jurafsky, D. (2025). Sycophantic AI decreases prosocial intentions and promotes dependence (arXiv:2510.01395). arXiv. https://arxiv.org/abs/2510.01395
Gardels, N. (2023). Post-Anthropocene humanism: The world is returning to pluralism after American hegemony. Noema Magazine. Retrieved during August 2024 from www. noemamag.com/post-anthropocene-humanism/
Goldfeder, J., Wyder, P., LeCun, Y., & Shwartz-Ziv, R. (2026). AI must embrace specialization via superhuman adaptable intelligence (arXiv:2602.23643). arXiv. https://arxiv.org/abs/2602.23643
He, H., et al. (2025). LocalSearchBench: Benchmarking agentic search in real-world local life services(arXiv:2512.07436). arXiv. https://arxiv.org/abs/2512.07436
Hopman, M., Elstner, J., Avramidou, M., Prasad, A., & Lindner, D. (2026). Evaluating and understanding scheming propensity in LLM agents (arXiv:2603.01608). arXiv. https://arxiv.org/abs/2603.01608
Intergovernmental Panel on Climate Change (IPCC). (2023). Climate change 2023: Synthesis report. Contribution of working groups I, II and III to the sixth assessment report of the Intergovernmental Panel on Climate Change [A. Pirani, R. Zan, A. Cheng, D. C. Taylor, M. Hassan (Eds.)]. IPCC. Retrieved during August 2024 from www.ipcc.ch/report/ar6/syr/
Jiang, L., Chai, Y., Li, M., Liu, M., Fok, R., et al. (2025). Artificial hivemind: The open-ended homogeneity of language models (and beyond) (arXiv:2510.22954). arXiv. https://arxiv.org/abs/2510.22954
Kim, K.-H. (2025). LLMs position themselves as more rational than humans: Emergence of AI self-awareness measured through game theory (arXiv:2511.00926). arXiv. https://arxiv.org/abs/2511.00926
Lin, S. (2025). Learning to prompt: Human adaptation in production with generative AI. University of Toronto. https://www.sijie-lin.com/files/JMP.pdf
Pareto, V. (1906). Manual of political economy. Oxford University Press. Retrieved during August 2024 from https:// global.oup.com/academic/product/manual-of-politicaleconomy-9780199607952
Rabanser, S., Kapoor, S., Kirgis, P., Liu, K., Utpala, S., & Narayanan, A. (2026). Towards a science of AI agent reliability (arXiv:2602.16666). arXiv. https://arxiv.org/abs/2602.16666
Roser, M. (2021). Extreme poverty: How far have we come, and how far do we still have to go? Retrieved during August 2024 from https://ourworldindata.org/extreme-poverty-inbrief
Schuller, M. (2024). Augmented Intelligence in Investment Management, Panthera Solutions. Retrieved during February 2026: blogs.cfainstitute.org/investor/2025/02/19/the-future-of-investing-augmented-intelligence/
Shambaugh, S. (2026, February 12). An AI agent published a hit piece on me. The Shamblog. theshamblog.com/an-ai-agent-published-a-hit-piece-on-me/
Shaw, S. D., & Nave, G. (2026). Thinking—fast, slow, and artificial: How AI is reshaping human reasoning and the rise of cognitive surrender. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646
Shapira, N., Wendler, C., Yen, A., Sarti, G., Pal, K., Floody, O., Belfki, A., Loftus, A., Jannali, A. R., Prakash, N., Cui, J., Rogers, G., Brinkmann, J., Rager, C., Zur, A., Ripa, M., Sankaranarayanan, A., Atkinson, D., Gandikota, R., Fiotto-Kaufman, J., Bau, D. (2026). Agents of chaos (arXiv:2602.20021). arXiv. https://arxiv.org/abs/2602.20021
Smith, A. (1759). The theory of moral sentiments. A. Millar.
Smith, A. (1776). An inquiry into the nature and causes of the wealth of nations: In two volumes. W. Strahan and T. Cadell.
Staab, R., Vero, M., Balunović, M., & Vechev, M. (2023). Beyond memorization: Violating privacy via inference with large language models (arXiv:2310.07298). arXiv. https://arxiv.org/abs/2310.07298
Tomašev, N., Franklin, M., & Osindero, S. (2026). Intelligent AI delegation (arXiv:2602.11865). arXiv. https://arxiv.org/abs/2602.11865
Zhao, Y., & Liu, J. (2026). Heterogeneous computing: The key to powering the future of AI agent inference(arXiv:2601.22001). arXiv. https://arxiv.org/abs/2601.22001
