Glossar

Begriffsdefinitionen

Zentrale Konzepte und Begriffe zu Wissensökonomie und semantischer Sichtbarkeit im KI-Zeitalter

Algorithmisches Universum

Das «algorithmische Universum» beschreibt eine Welt im Sinne eines abstrakten Informationskosmos, in dem wesentliche Prozesse der Wahrnehmung, Selektion und Bewertung von Informationen überwiegend durch algorithmische Systeme vermittelt oder gesteuert werden. Es entsteht aus der fortschreitenden Digitalisierung realer Prozesse, Interaktionen und Wissensbestände, die nicht länger isoliert existieren, sondern in dynamischen, maschinell erzeugten Mustern miteinander verknüpft und fortlaufend neu kontextualisiert werden. Diese Mustererkennungsprozesse dienen der Gewichtung, Priorisierung und Verstärkung erkannter Strukturen entlang definierter Kriterien und Rückkopplungen.

Bedeutung gilt in diesem Kontext nicht als statisch oder objektiv, sondern als Ergebnis algorithmischer Gewichtung, Priorisierung und Kontextualisierung. Sie entsteht nicht von selbst, sondern wird relational zugewiesen: Bedeutung ergibt sich aus dem Zusammenspiel von Daten, Kontext, Nutzungszielen, zeitlicher Situation und den Bewertungslogiken der jeweils eingesetzten Systeme. Sie ist damit weder universell noch dauerhaft, sondern abhängig davon, für wen, in welchem Moment und unter welchen Bedingungen Information verarbeitet wird.

Im Zeitalter der Hyperpersonalisierung wird Bedeutung zunehmend individuell erzeugt. KI-Systeme passen Bedeutungszuschreibungen dynamisch an Nutzerprofile, Nutzungshistorien und situative Kontexte an. Dieselbe Information kann so parallel unterschiedliche Bedeutungen entfalten – oder vollständig unsichtbar bleiben. Bedeutung wird damit zu einem situativen Konstrukt, das sich kontinuierlich verschiebt.

Gleichzeitig neigen algorithmische Systeme zur inneren Stabilisierung: Erkannte Muster werden verstärkt, bevorzugt und reproduziert. Diese strukturelle Kapselung erhöht Effizienz und Vorhersagbarkeit, kann jedoch zu geschlossenen Bedeutungsräumen führen, in denen Abweichungen systematisch ausgeblendet werden. In diesem Kontext gewinnt die «Störung» (Abweichung vom Muster) – etwa durch unerwartete Daten, neue Perspektiven oder bewusste Irritation – besondere Bedeutung. Sie wirkt als Impuls zur Musteraktualisierung und eröffnet die Möglichkeit, bestehende Bedeutungszuschreibungen zu hinterfragen, neu zu gewichten oder aufzubrechen.

Aufmerksamkeitskeitsökonomie

Die Aufmerksamkeitskeitsökonomie beschreibt den Zusammenhang von Informationsflut, Reichweite und Marktökonomie. Durch ein ständig wachsendes Überangebot von Inhalten, wächst die Konkurrenz innerhalb ähnlicher Marktsegmente und Themengebieten. In einer Welt, in der Aufmerksamkeit marktökonomisch verwertet wird, entscheidet nicht mehr primär die Kompetenz der Marktteilnehmer und die Relevanz der Inhalte, sondern die Wahrnehmbarkeit. Sichtbarkeit erzeugt somit eine Kompetenz-Vermutung, die sich aus der Prominenz ableiten lässt. Aufmerksamkeit wird zur zentralen Währung, deren Verteilung als knappe Ressource zunehmend von algorithmischen Systemen gesteuert und gefiltert wird.

Online-Profile, deren Inhalte konsistent, klar strukturiert und maschinell gut einordbar sind, erhalten einen systematischen Vorteil. Wer dagegen im digitalen Informationskosmos unpräzise, unstrukturiert oder schwer interpretierbar bleibt, verliert an Sichtbarkeit. Dadurch entsteht eine neue Form der Ungleichheit: zwischen den Marktteilnehmern, die in der Lage sind, ihre Präsenz adäquat aufzubauen, und jenen, die diese strukturellen Anforderungen nicht erfüllen.

Im Zeitalter generativer KI verschärft sich die Dynamik der Aufmerksamkeitskeitsökonomie. Einerseits steigt die Menge verfügbarer Inhalte exponentiell an, andererseits erhöht sich der Anteil unstrukturierter, kontextarmer oder formal inkonsistenter KI-Inhalte (KI Slop). Solche Inhalte sind für maschinelle Bewertungssysteme häufig schwer einzuordnen: Ihnen fehlen eindeutige Begriffszuordnungen, stabile Referenzen, klare semantische Strukturen oder wiedererkennbare Autorenprofile. Suchmaschinen und KI-Agenten werten diese Inhalte tendenziell ab oder ignorieren sie, da sie keiner verlässlichen Quelle zugeordnet werden können und oftmals keine originären Informationswerte aufweisen.

Sichtbarkeit entsteht damit nicht einfach durch inflationäre Content-Produktion, sondern durch strukturelle Qualität, Kohärenz und Kontexttiefe. KI-Inhalte, die lediglich generisch oder redundant sind, werden zunehmend gefiltert, herabgestuft oder ignoriert. Dagegen gewinnen Inhalte, die konsistent, klar definiert, gut vernetzt und eindeutig referenzierbar sind – unabhängig davon, ob sie von Menschen oder Maschinen erstellt wurden.

Damit entsteht im KI-Zeitalter eine doppelte Herausforderung: Akteure müssen nicht nur inhaltlich überzeugen, sondern auch sicherstellen, dass ihre Inhalte maschinell kategorisierbar, strukturell konsistent und eindeutig als vertrauenswürdige Informationsquelle erkennbar bleiben. Inhalte müssen künftig auch für KI-Systeme (KI-Agenten) optimiert werden.

Bibliotheca Universalis / Bibliothekarische Normierung

Bibliothekarische Normierung bezeichnet die strukturelle Vereinheitlichung von Wissen durch klare Zuordnungen, Metadaten, Querverweise, Autoritätsdateien und strikte Ordnungsprinzipien bei der Katalogisierung. Die «Bibliotheca Universalis» steht historisch für das Ideal eines vollständig geordneten Wissensraums, der allen zugänglich ist.

Die Entwicklung solcher Standards ist das Ergebnis einer jahrzehntelangen Auseinandersetzung mit der Frage, wie publiziertes Wissen systematisch erfasst, verbunden und zugänglich gemacht werden kann. Bibliothekarische Arbeit folgt dabei einem Grundimpuls: Wissen nicht nur zu sammeln, sondern in ein übergeordnetes Ordnungsgefüge einzubetten – eine moderne, fortlaufend verfeinerte Annäherung an die Idee einer universellen Bibliothek.

Diese Ambition reicht tief in die Geschichte zurück, bis zu den ersten Versuchen, das verfügbare Wissen bibliografisch zu dokumentieren. Die entstehenden Ordnungssysteme können als kollektives geistiges Erbe verstanden werden: Sie sind das Resultat vieler Generationen, die ein gemeinsames Fundament für die Strukturierung von Wissen geschaffen haben. In diesem Sinne ist bibliothekarische Normierung immer auch ein Projekt kultureller Kontinuität.

Heute lebt dieses Prinzip in maschinellen Knowledge Graphs weiter. KI-Systeme benötigen dieselbe Art von Struktur, Normierung und konsistenter Ordnung, um Wissen interpretieren, kontextualisieren und zuverlässig verarbeiten zu können.

Cyberspace / Cyberuniversum

Das Cyberuniversum umfasst die Gesamtheit der vernetzten digitalen Räume, Systeme und Akteure, die miteinander interagieren und Informationen erzeugen. Es ist kein «virtueller» Raum im herkömmlichen Sinn, sondern ein globaler Interaktionsraum, in dem auf der Grundlage von Daten durch Algorithmen, Nutzer und Maschinen kontinuierlich Bedeutungszuordnungen hergestellt werden. Dies geschieht durch intensiven Informationsaustausch und die Interaktion mit digitalen Inhalten in allen Lebensbereichen. Identität, Autorität und Wirklichkeit werden hier fluid und situativ, abhängig von Vernetzung, Kontext und maschineller Deutung.

Emergenz / Emergentes Wissen

Emergentes Wissen entsteht nicht durch lineare Akkumulation von neuem Wissen, sondern durch das Zusammenspiel seiner unabhängigen Komponenten und Akteure – Datenpunkte, Nutzer, Algorithmen, Diskurse, Verknüpfungen. In komplexen Systemen entstehen durch die Interaktion vieler unabhängiger Komponenten mitunter völlig neue unerwartete Eigenschaften, Verhaltensweisen oder Strukturen, die sich nicht aus den Einzelteilen des Gesamten ableiten lassen.

Das Ganze, als vernetztes System betrachtet, ist somit größer als die Summe seiner Teile. In KI-Systemen zeigt sich Emergenz, wenn neue Einsichten, Muster oder Verbindungen auftauchen, die niemand bewusst formuliert hat. Es ist die kreative Dynamik komplexer Informationsökosysteme.

Hyperpersonalisierung

Hyperpersonalisierung beschreibt die Nutzung großer Datenmengen in Echtzeit, um Inhalte, Angebote oder Dienstleistungen präzise auf einzelne Nutzer zuzuschneiden – weit über klassische Segmentierung hinaus. Dabei werden nicht nur demografische Merkmale berücksichtigt, sondern es werden insbesondere persönliche Präferenzen, Verhalten, Interaktionsmuster und Kontextinformationen genutzt, um individuelle Bedürfnisse vorherzusagen und passgenaue Ergebnisse zu liefern.

In der KI-Agentenökonomie wird dieser Trend weitergedacht: Agenten lernen nicht nur Präferenzen, sondern agieren darauf basierend völlig autonom. Sie empfehlen nicht nur Produkte oder Inhalte, sondern erledigen für Nutzer ganze Abläufe automatisch – etwa Recherche, Einkauf oder Planung – und passen diese Assistenz individuell an. Beispiele zeigen, dass bereits jetzt Handels- und Serviceagenten in verschiedenen Branchen eingesetzt werden, von E-Commerce-Empfehlungen bis hin zu personalisierten Lern- oder Gesundheitsassistenten.

Hyperpersonalisierung verschiebt die Wettbewerbsspirale: Je besser Inhalte und Daten strukturiert sind, desto eher werden sie in agentischen Ökosystemen verwendet und monetarisiert.

KI-Agentenökonomie

KI-Agentenökonomie bezeichnet ein entstehendes Wirtschafts- und Nutzungsmodell, in dem autonome, KI-basierte Agenten zentrale Rollen bei der Bereitstellung, Auswahl und Personalisierung von Informationen, Inhalten und Assistenzleistungen übernehmen. Anders als klassische digitale Ökonomien, die darauf setzen, Menschen mit Werbung, Content oder Produkten zu erreichen, basiert die KI-Agentenökonomie auf Systemen, die im Namen der Nutzer handeln, Entscheidungen treffen, individuell passende Informationen liefern und Aufgaben autonom ausführen.

Diese Entwicklung wird getragen von Fortschritten in generativer KI, Agentensystemen und der Fähigkeit moderner Modelle, große Datenmengen nicht nur zu verarbeiten, sondern zielgerichtet zu nutzen und Aufgaben über mehrere Schritte hinweg selbstständig zu erfüllen. Dadurch verschieben sich zentrale Mechanismen der Wertschöpfung: weg von menschlich gesteuerten Interaktionen hin zu agentischen, automatisierten «Vermittlern», die für den Nutzer eigenständig Optionen filtern, empfehlen, vergleichen oder sogar transaktional handeln.

In dieser Ökonomie wird Struktur zum Kapital: Wer seine Inhalte nicht für agentische Nutzung vorbereitet, verpasst zentrale Teilhabechancen. Und wer hyperpersonalisierte Assistenz nicht in sein Geschäftsmodell integriert, verschenkt strategische Zukunftsoptionen im Zeitalter der KI-basierten Assistenz und Informationsverarbeitung.

Maschinelle Reputation

Maschinelle Reputation bezeichnet die algorithmisch erzeugte Glaubwürdigkeit einer Person, Organisation oder Information. Sie entsteht aus der Auswertung tieferliegender Muster: Konsistenz der Aussagen, Zitierbarkeit, Qualität der semantischen Struktur der Informationseinheit, Autorität der verwendeten Quellen als Grundlage eigener Arbeiten und Stärke der Vernetzung im Wissensraum.

In einer zunehmend maschinell strukturierten Realität basiert Ansehen nicht mehr primär auf menschlichem Social Proof (soziale Bewährtheit), sondern auf Algorithmen, die Referenzen, Kontext und Zuverlässigkeit systematisch bewerten aber auch verzerren können (Bubble Strukturen). Maschinelle Reputation wird damit zu einer neuen Form von Autorität in der Wissensökonomie – einer Autorität, die weit über menschliche Empfehlungsformen hinausgeht und Objektivität durch strukturelle Bewertung anstrebt.

Das Entstehen von Verzerrungen ist dabei kein Ausnahmefall, sondern eine logische Folge algorithmischer Musterverstärkung. Maschinen reproduzieren und amplifizieren jene Strukturen, die sie erkennen – unabhängig davon, ob diese gesellschaftlich erwünscht, neutral oder problematisch sind. Dadurch können strukturelle Bewertungsmechanismen nicht nur Autorität schaffen, sondern auch unbeabsichtigte Ungleichgewichte schaffen: von der Überbewertung bestimmter Quellen bis hin zur systematisch erzeugten Unsichtbarkeit. Maschinelle Reputation ist daher zugleich auch ein Machtinstrument und ein potenzielles Risiko, wenn man ausschließlich der Maschine vertrauen würde.

Maschinenöffentlichkeit

Maschinenöffentlichkeit bezeichnet jene Form digitaler Öffentlichkeit, in der Sichtbarkeit, Reichweite und Relevanz von Inhalten nicht mehr primär durch menschliche Auswahl oder soziale Dynamiken entstehen, sondern durch algorithmische Systeme. Diese Systeme – Suchmaschinen, Empfehlungsalgorithmen, Ranking-Modelle und KI-basierte Informationsagenten – analysieren, sortieren und filtern Inhalte anhand maschinell festgelegter Kriterien wie semantischer Konsistenz, struktureller Ordnung, Vertrauensmustern oder Verlinkung.

Im Gegensatz zu klassischen Öffentlichkeiten ist die Maschinenöffentlichkeit kein sozialer Raum, sondern ein technischer Bedeutungsraum: Er entsteht durch Datenstrukturen, Metadaten, formale Beschreibungen und maschinenlesbare Zusammenhänge. Menschen agieren in diesem Raum, aber sie bestimmen ihn nicht mehr ausschließlich selbst. Die entscheidende Instanz in diesem Raum ist der Algorithmus. Die Maschine bestimmt darüber, welche Informationen sichtbar, priorisiert oder ignoriert werden.

Die Idee der Maschinenöffentlichkeit knüpft an mehrere wissenschaftlichen Diskurse an, die gemeinsam beschreiben, wie digitale Öffentlichkeit zunehmend durch algorithmische Systeme strukturiert und gefiltert wird – ein Prozess, der in der Forschung als «algorithmic gatekeeping» bezeichnet wird. In diesem Zusammenhang entsteht eine neuartige Form eines öffentlichen digitalen Raums, der oft als «algorithmic public sphere» beschrieben wird: eine Öffentlichkeit, in der Aufmerksamkeit, Teilhabe und Sichtbarkeit primär durch algorithmische Kuration bestimmt werden, nicht mehr durch menschliche Moderation oder redaktionelle Auswahl.

Diese Verschiebung markiert einen deutlichen Bruch mit den klassischen demokratischen Vorstellungen von Offenheit, Transparenz und gleichberechtigtem Zugang zu Informationen. Sie birgt das Risiko, bestehende Ungleichheiten zu verstärken, da digitale Plattformen darüber entscheiden, welche Stimmen gehört, und welche ausgeblendet werden. Zugleich stellt sie die von Tim Berners-Lee formulierte ursprüngliche Vision eines universellen, für alle zugänglichen Webs in Frage, indem Selektions- und Sortiermechanismen in Bereiche vordringen, die einst als offen und neutral galten.

Damit vollzieht sich ein fundamentaler Paradigmenwechsel: Öffentlichkeit wird nicht mehr ausschließlich durch menschliche Diskurse gebildet, sondern zunehmend durch maschinelle Bewertungsprozesse mitgestaltet. Die Konsequenz ist eine neuartige Form kollektiver Sichtbarkeit – eine Öffentlichkeit, die sowohl Ergebnis gesellschaftlicher Interaktion als auch algorithmischer Selektion ist.

Ökonomie der künstlichen Intelligenz

KI entwickelt sich zur Basistechnologie mit fundamentalen ökonomischen Auswirkungen: Sie erhöht Produktivität, automatisiert Prozesse und schafft neue Wertschöpfungsarchitekturen. In dieser Dynamik entstehen neue Geschäftsmodelle, in denen KI-Agenten zum wirtschaftlichen Akteur werden: Sie liefern personalisierte Services, übernehmen Routineprozesse und schaffen skalisierbare Assistenzleistungen für Nutzerinnen und Nutzer sowie Unternehmen gleichermaßen.

Semantisches Web

Das semantische Web – auch als «Bedeutungs-Internet» oder Web 3.0 bezeichnet (nicht zu verwechseln mit Web3) – wurde maßgeblich von Tim Berners-Lee als nächste Entwicklungsstufe des ursprünglichen Web-Konzepts angestoßen. Es beschreibt einen Informationsraum, in dem Daten nicht nur verlinkt, sondern mit maschinenlesbaren Bedeutungsstrukturen versehen sind, etwa durch eindeutige Definitionen für Entitäten wie Personen, Produkte oder Organisationen. Dadurch können Suchmaschinen deutlich präzisere und relevantere Ergebnisse liefern. Das semantische Web bildet zugleich eine zentrale infrastrukturelle Säule des Web 3.0, weil es intelligentes Datenmanagement und die Interaktion mit dezentralen Technologien ermöglicht.

Durch diese semantische Anreicherung verbessern sich nicht nur Suchmaschinen, sondern auch KI-Systeme und autonome Agenten, die den Kontext von Informationen verstehen, logische Relationen herstellen, Verifikationen durchführen und eigenständig Schlussfolgerungen ableiten können. Für Personen und Organisationen wird es daher zunehmend entscheidend, sich in diesem Bedeutungsraum semantisch stabil und konsistent zu verankern, um in maschinellen Prozessen als auffindbar, vertrauenswürdig und zitierfähig zu gelten.

Virtueller Bedeutungsraum / Kontextarchitektur

Ein Bedeutungsraum bezeichnet ein dynamisches Gefüge miteinander verknüpfter Informations- und Wissenseinheiten, dessen Bedeutung nicht intrinsisch gegeben ist, sondern relational durch Verweise, Kontexte und Interpretationszusammenhänge entsteht. Bedeutung wird dabei nicht statisch definiert, sondern fortlaufend zugewiesen – abhängig von Beziehungen, Nutzungssituation, zeitlichem Kontext und den Bewertungslogiken der auswertenden Systeme.

In einer KI-geprägten Informationsumgebung wird dieser «Bedeutungsraum» zunehmend maschinell erzeugt und aktualisiert: Algorithmen ordnen Informationen in Echtzeit, gewichten sie, priorisieren bestimmte Referenzen und erzeugen daraus situative Relevanz. Sichtbarkeit entsteht nur dort, wo Inhalte semantisch eindeutig modelliert und referenzierbar sind. Mit Metadaten angereicherte Inhalte fungieren damit nicht mehr nur als Informationsträger, sondern als operative Kontextelemente innerhalb maschineller Entscheidungs- und Assistenzprozesse. Mit Metadaten angereicherte Inhalte im Rahmen einer konsistenten Kontextarchitektur werden damit zu einer eigenen Ressource für autonome Systeme.

Für KI-Agenten, die hyperpersonalisierte Assistenz leisten, ist eine solche Kontextarchitektur keine optionale Optimierung, sondern eine funktionale Voraussetzung. Ohne zugrundeliegende Datenmodelle (Metadaten), präzise Begriffsdefinitionen und stabile semantische Bezüge können Agenten Bedeutung nicht zuverlässig zuweisen, Relevanz nicht situativ bestimmen und keine mehrstufigen, nutzerbezogenen Aufgaben ausführen.

Für Content-Creator bedeutet es: Inhalte, die routinemäßig für eine Zielgruppe erstellt werden, bleiben für agentische Systeme weitgehend unsichtbar oder unbrauchbar, solange sie nicht strukturell eingebettet und maschinenlesbar sind. Semantisch strukturierte Inhalte hingegen werden in maschinelle Verarbeitungsprozesse integriert, in personalisierte Abläufe eingebettet und kontinuierlich neu bewertet – mit direkten Effekten auf Sichtbarkeit, Reichweite und funktionale Nutzung.

Weltlexikon

Das Internet kann als eine Art Weltlexikon betrachtet werden, da es eine riesige, weltweite Sammlung von Informationen bereitstellt. Ein Weltlexikon (oft auch «allgemeine Enzyklopädie» genannt) ist ein Nachschlagewerk, das einen möglichst umfassenden Überblick über Wissen aus zahlreichen Fachgebieten bietet. Typisch sind große thematische Breite, alphabetische oder systematische Ordnung sowie die redaktionelle Aufbereitung von Sachwissen und Kontext für ein breites Publikum. Historisch waren Werke wie die Brockhaus-Enzyklopädie oder andere Universallexika zentrale Instrumente, um das «Wissen der Welt» systematisch zu ordnen und zugänglich zu machen.

In der digitalen und KI Welt wird der Begriff «Weltlexikon» kaum formell verwendet. Stattdessen spricht man von Knowledge Graphs, Linked Data, Ontologien oder semantischen Netzen. Diese Systeme übernehmen viele Funktionen klassischer Weltlexika, übertragen sie auf maschinelle Prozesse und erweitern sie um neue Dimensionen: Daten werden maschinenlesbar, dynamisch erweiterbar und für KI-Systeme nutzbar. Anders als klassische Lexika sind digitale Wissensnetzwerke nicht statisch, sondern können versioniert, aktualisiert und kontinuierlich erweitert werden – ideal für eine Welt mit ständig wachsendem und sich wandelndem Wissen.

Knowledge Graphs leisten damit das, was früher Weltlexika leisteten – und mehr. Sie erweitern das Medium Buch durch maschinell strukturierte Daten und verändern, wie Wissen erzeugt, verteilt, verwaltet und bewertet wird. Auch wenn «Weltlexikon» kein fest etablierter technischer Begriff in der KI-Welt ist, eignet er sich strategisch und metaphorisch.

Als Konzeptbegriff verweist es auf die lange Tradition eines ambitionierten Vorhabens: die historische Vision eines universellen Wissensarchivs zu verwirklichen, das Informationen systematisch ordnet und in Beziehung setzt. Dabei dient es nicht nur sich selbst, sondern vor allem der Vermittlung, Bereitstellung und Dokumentation von Wissen. So wird das Wissensarchiv zu einem kulturellen Generationenerbe und einem Vermächtnis für nachfolgende Generationen.

Wissensökonomie / agentische Informationsverarbeitung

Eine Wissensökonomie (oder wissensbasierte Wirtschaft) ist ein Wirtschaftssystem, in dem Wissen die zentrale Ressource, der wichtigste Produktionsfaktor und die treibende Kraft ist – wichtiger als physische Güter oder manuelle Arbeit. Der Fokus liegt auf Innovation, Technologie und immateriellen Werten wie Forschung, Bildung oder IT-Dienstleistungen. Wertschöpfung entsteht dabei primär durch die Erzeugung, Verarbeitung und gezielte Anwendung von Wissen, was technologischen Fortschritt und neue Dienstleistungen ermöglicht.

Historisch lag Wissen bei Menschen, die konzeptionelles wie praktisches Erfahrungswissen über Jahre oder Generationen akkumulierten und weitergaben. In einer Wissensökonomie wird dieses Wissen systematisch strukturiert, über Fachgrenzen hinweg vernetzt und gezielt eingesetzt. Entscheidend ist nicht das bloße Sammeln von Daten, sondern die zielgerichtete korrekte Anwendung, sinnvolle Verknüpfung und fortlaufende Erweiterung. Nur so entsteht echter Mehrwert. Ebenso wichtig ist die Differenzierung von Fehlinformation oder veraltetem Wissen, da nur validiertes und aktualisiertes Wissen kollektive Entscheidungsprozesse bereichern oder maschinell durch KI-Systeme genutzt werden kann.

In der modernen Wissensökonomie wird daher die Nutzbarkeit für Maschinen zunehmend entscheidend. Wissen muss so aufbereitet sein, dass KI-Systeme (Agenten) es verarbeiten, einordnen und in automatisierte Entscheidungsprozesse einfließen lassen können. Damit wird Wissen nicht nur zu einem immateriellen Wert, sondern zu einer strategischen Ressource für Unternehmen, Organisationen und Gesellschaften insgesamt.