Europa sitzt auf riesigen öffentlichen Datenschätzen – doch ihr Mehrwert bleibt oft ungenutzt. Ursache sind fragmentierte Portale, inkompatible Schnittstellen und die wachsende Abhängigkeit von außereuropäischen Plattformen, die Innovationen ausbremsen. Während sich neue industrielle Datenräume etablieren und den sicheren wie souveränen Austausch sensibler Informationen ermöglichen, bleiben öffentliche und industrielle Datenwelten weitgehend voneinander getrennt. In diesem Artikel erfahren Sie, wie Künstliche Intelligenz (KI) und das Model Context Protocol (MCP) dabei helfen können, diese Silos zu verbinden und Europas Weg von Open Data zu Open Knowledge zu ebnen – für digitale Souveränität und mehr gesellschaftlichen Nutzen.


Europa sitzt auf ungenutzten Datenschätzen – über 500 Open-Data-Portale allein in Deutschland, aber weniger als 5 % der Daten werden produktiv genutzt.
Verfügbar machen reicht nicht – Daten müssen kontextualisiert und verknüpft werden, um echten Mehrwert zu schaffen.
KI und MCP als Brücke – eine "Federated Knowledge Architecture" verbindet offene Daten mit Industrie-Datenräumen und macht sie per lokalem LLM nutzbar.
Vom Datensammeln zum Wissensschaffen – der nötige Paradigmenwechsel ist technisch machbar und stärkt gleichzeitig die digitale Souveränität.
Europa besitzt enorme öffentliche Datenbestände, doch deren ökonomischer und gesellschaftlicher Mehrwert bleibt bislang hinter den Erwartungen zurück. Ursachen dafür sind fragmentierte Datenportale, inkompatible Schnittstellen sowie zunehmende Abhängigkeiten von außereuropäischen Plattformen – allesamt Faktoren, die echte Innovation hemmen.
Parallel dazu entstehen in der Industrie neue Datenräume (Data Spaces), beispielsweise im Rahmen von Gaia-X, Catena-X oder dem International Data Spaces (IDS)-Referenzmodell. Im Unterschied zu klassischen Open-Data-Portalen ermöglichen diese Datenräume den sicheren, strukturierten und branchenübergreifenden Austausch sensibler Informationen – auf Basis standardisierter Verträge, Identitäts- und Zugriffsmechanismen. Jeder Teilnehmer behält dabei die Kontrolle über seine Daten, während ein vertrauenswürdiges Ökosystem für kollaborative Wertschöpfung geschaffen wird.
Als Folge existieren heute zwei umfangreiche, aber weitgehend voneinander getrennte Datenwelten:
Beide Bereiche bergen großes Wissen – doch solange es keine verbindende, einfach nutzbare Brücke gibt, bleibt dieses Potenzial ungenutzt. Im Folgenden erfahren Sie, wie Künstliche Intelligenz (KI) und das Model Context Protocol (MCP) gemeinsam den Weg von Open Data zu Open Knowledge ebnen – und wie Sie als Entscheider eine nahtlose Vernetzung öffentlicher und industrieller Datenbestände vorantreiben können, ohne die digitale Souveränität Ihres Unternehmens zu gefährden.
Open Data steht für das Prinzip, Verwaltungs- und Forschungsdaten offen, maschinenlesbar sowie ohne rechtliche oder technische Zugangsbarrieren bereitzustellen. Dieser Gedanke ist keineswegs neu: Schon 2003 verpflichtete die sogenannte PSI-Richtlinie (Public Sector Information) die EU-Staaten, öffentlich finanzierte Daten bestmöglich zugänglich zu machen. 2019 wurde mit der Open Data Directive der Rahmen nochmals gestärkt – mit dem Ziel, Innovation, Transparenz und wirtschaftliches Wachstum zu beflügeln. Infolgedessen stellen Behörden unterschiedlichste Datensätze bereit, von Geodaten und Wetterinformationen bis hin zu Haushaltszahlen und Verkehrsdaten – mit dem Anspruch, daraus neue Services und Erkenntnisse zu ermöglichen.
Die Realität sieht jedoch anders aus: Zwischen Anspruch und tatsächlichem Mehrwert klafft eine deutliche Lücke. Offene Daten sind reichlich vorhanden, aber ihre gesellschaftliche Wirkung bleibt marginal.
Trotz erheblicher Investitionen wird nur ein Bruchteil dieses Potenzials ausgeschöpft. In Deutschland existieren beispielsweise über 500 Open-Data-Portale – doch jedes arbeitet mit eigenen Metadatenstrukturen, Formaten und Schnittstellen. Für Entwicklerinnen und Entwickler bedeutet das: Aufwändige Integration, uneinheitliche Formate und wenig verständliche Dokumentationen erschweren die Nutzung. Im Schnitt zählt ein Portal weniger als 100 Zugriffe pro Monat, manche Datensätze werden so gut wie nie genutzt. Seit 2010 wurden über 250 Millionen Euro in solche Infrastrukturen investiert, dennoch finden weniger als fünf Prozent der bereitgestellten Daten produktiv Verwendung.
Die Folge: Es entstehen teure Insellösungen, unnötige Doppelarbeit und Frust bei allen Beteiligten. Zudem wächst – insbesondere für Analyse-, Hosting- oder Aufbereitungsdienste – die Abhängigkeit von globalen Cloud-Anbietern. Das wiederum widerspricht dem Ziel, Europas digitale Souveränität zu stärken.
Im weiteren Verlauf erläutert dieser Artikel, wie moderne Technologien wie Künstliche Intelligenz (KI) und das Model Context Protocol (MCP) helfen können, diese Blockaden zu überwinden und das Zielbild Open Knowledge in greifbare Nähe zu rücken.
Während Open-Data-Portale sich primär an die Allgemeinheit richten, entstanden in der Industrie – vor allem seit 2015 mit der Initiative International Data Spaces (IDS) des Fraunhofer-Instituts – sogenannte Data Spaces. Ihr Ziel ist es, einen vertrauenswürdigen, dezentralen Datenmarkt zu ermöglichen, in dem Unternehmen sensible Informationen austauschen können, ohne die Hoheit über diese Daten zu verlieren. Projekte wie Gaia-X* oder dessen branchenspezifische Ausprägungen (Catena-X für die Automobilindustrie, Manufacturing-X für die Fertigung, Agrar-Data-Space usw.) bauen auf diesem Konzept auf.
Zentrale Merkmale eines Data Space:
Dadurch können entlang der gesamten Wertschöpfungskette – von der Rohmaterialbeschaffung bis zum Recycling – Digitale Zwillinge aufgebaut werden, die Echtzeitinformationen über den Zustand, die Nutzung und den CO₂-Fußabdruck eines Produkts liefern. Anbieter von Maschinen, Logistik-Dienstleistern, Zulieferer sowie Betreiber erhalten so ein gemeinsames, jedoch fein granuliertes Lagebild, ohne ihre proprietären Datenbanken offenlegen zu müssen.
Data Spaces ergänzen somit das öffentliche Open-Data-Ökosystem um hochaufgelöste, domänenspezifische Wissensschätze. Wenn beide Welten miteinander verbunden und für KI-Systeme wie Large Language Models leicht zugänglich gemacht werden, entsteht ein gutes Fundament für wirklich datengetriebene Innovationen – von präventiver Wartung über resiliente Lieferketten bis hin zu nachhaltigen Produktkreisläufen.
Digitale Souveränität bedeutet Kontrolle über Daten, Infrastruktur und Wertschöpfung. Drei Missverständnisse stehen echter Souveränität im Weg:
Nur wenn Daten kontextualisiert, zugänglich und verarbeitbar sind, entsteht Wert. Wäre es nicht einfacher, die Open-Data-Portale in Data Spaces zu überführen?
Data-Space-Architekturen – ob Gaia-X, Catena-X, Manufacturing-X oder die Querschnittsreferenz IDS – versprechen den heiligen Gral der Datensouveränität. Technisch liefern sie:
Damit ist die Frage "Wer darf welche Daten unter welchen Bedingungen sehen?" inzwischen gut beantwortet. Offen bleibt jedoch die viel wichtigere Frage: "Und wozu?"
Kurzum: Data Spaces legen eine sichere Pipeline, doch das Wasser muss erst noch zu Trinkwasser veredelt werden. Wenn KI-basierte Dienste wie LLMs sowie leichtgewichtige Protokolle à la MCP die Daten automatisch auffindbar, semantisch harmonisiert und in natürliche Sprache übersetzbar machen, schließt sich die "Souveränitäts-Wertschöpfungs-Lücke". Dann entsteht aus souverän geteilten Rohdaten tatsächlich nutzbares Wissen – von der Lieferketten-Resilienz über den Digitalen Zwilling bis zur Kreislaufwirtschaft.
In diesem Abschnitt wird ein konkreter Anwendungsfall beschrieben, der zeigt, wie durch die Kombination von Open Data und Data Spaces mithilfe von KI und MCP ein souveränes Architektur-Muster – die Federated Knowledge Architecture (FKA; dt. "Föderierte Wissensarchitektur") – entstehen kann, das echten Mehrwert schafft. Am Beispiel des geplanten Baus einer Fertigungshalle wird illustriert, wie dieses Architektur-Muster die Brücke zwischen offenen und domänenspezifischen Datenräumen schlägt und so innovative Wissenslandschaften ermöglicht.
Federated Knowledge Architecture (FKA) bezeichnet ein Architekturmuster, in dem verteilte Wissens- und Datendienste über MCP föderiert werden. Es verbindet Open‑Data‑Quellen und domänenspezifische Data Spaces zu einer souveränen Wissensschicht für KI‑gestützte Auswertung – mit klarer Governance und ohne zentrale Datenhaltung.
Das Federated Knowledge System (FKS) ist die konkrete Implementierung der FKA in einer Organisation oder einem Ökosystem – einschließlich MCP‑Servern, LLM‑Orchestrierung und Domänenadaptern.
Der Bau einer Fertigungshalle ist eine komplexe Herausforderung, bei der zahlreiche Datenquellen abzurufen und zu berücksichtigen sind. Dabei geht es etwa um Umweltinformationen aus öffentlichen Open-Data-Töpfen wie Bodenbeschaffenheit, Trinkwasser- und Hochwasserschutz oder wissenschaftlich fundierte ökologische Aspekte für nachhaltiges Bauen, um den Einfluss auf die Umwelt zu minimieren. Gleichzeitig müssen branchenspezifische Data Spaces erschlossen werden, um Materialien mit geringstem CO₂-Fußabdruck auszuwählen, etwa für Baustoffe oder elektrische Installationen – eine Optimierung, die auch über die gesamte Lebensdauer der Fertigungshalle berechnet werden sollte.
Aktuell bedeutet dies, verschiedenste Behörden und Experten aufzusuchen, Anträge manuell auszufüllen und aufwändige Abstimmungsschleifen in Kauf zu nehmen. Jeder Schritt ist zeitintensiv und fehleranfällig.
Hier setzt die Vision einer Federated Knowledge Architecture an: Mit dem Model Context Protocol (MCP) als föderiertem Datenübersetzer und lokalen Large Language Models (LLMs) entsteht ein Architektur-Muster, das diese Komplexität reduziert und den gesamten Datenzugang in einer einzigen, intelligenten Wissensschicht vereint.
Wie eine solche Architektur funktioniert:
Das Ergebnis: Anstatt mühsam einzelne Behörden zu kontaktieren, Eingaben von Experten abzuwarten oder bürokratische Silos zu durchbrechen, kann ein Projektleiter mit einer einfachen Abfrage – beispielsweise "Wie plane ich eine ökologisch optimale Fertigungshalle im Trinkwasserschutzgebiet?" – relevante Bauvorschriften, Umweltanalysen und Arbeitsunterlagen schnell erhalten. Diese Informationen können während des gesamten Bauvorhabens immer wieder abgefragt und mit dem aktuellen Baufortschritt abgeglichen werden. Im ersten Schritt wird ein solches Architekturmuster noch kein Bauvorhaben vollumfänglich planen können, jedoch kann es enorm unterstützen, um auf plötzlich auftretende Änderungen schnell reagieren zu können.
Technisch basiert diese Lösung auf lokal gehosteten LLMs, die über MCP-Server mit Echtzeitdaten aus den jeweiligen offenen Datenquellen und Data Spaces angereichert werden. Die Integration erfolgt dabei ohne Migration vorhandener Legacy-Systeme, was eine einfache Umsetzung ermöglicht.
Ein solches Architektur-Muster transformiert den Bauprozess fundamental:
So beschreibt der Anwendungsfall nicht nur einen technologischen Fortschritt, sondern zeigt auch den Weg hin zu einer modernen, KI-unterstützten Infrastruktur, die sowohl Open Data als auch Data Spaces nutzt, um den Übergang zu echter Open Knowledge Realität werden zu lassen.
Wie könnte eine solche Federated Knowledge Architecture konkret aussehen? Die folgende Grafik beschreibt exemplarisch, wie ein solches Architektur-Muster umgesetzt werden kann und wie der Ablauf einer Wissensanfrage abläuft. Um Übersichtlichkeit zu gewährleisten, werden nicht alle Datentöpfe aus dem beschriebenen Beispiel dargestellt. Die darin abgebildeten MCP Server können sowohl im eigenen System der Federated Knowledge Architecture bereitgestellt werden als auch in einem fremden System, zum Beispiel von einem Open Data Portal Betreiber.

Das beschriebene Beispiel zeigt, wie die verschiedenen Systeme zusammenarbeiten. Je mehr MCP Server zur Verfügung stehen, desto umfangreicher werden die Antworten. Das beginnt bei der Zusammenfassung und der Empfehlung von Maßnahmen bis zur Befüllung von Anträgen und sogar die Steuerung von bestimmten Anlagen und Geräten ist möglich. Das Potenzial eines solchen Architekturmusters ist immens, um aus bestehenden Daten neue Innovationen zu kreieren. Doch wie lässt sich so ein System realisieren?
Bevor eine Federated Knowledge Architecture umgesetzt werden kann, muss zuerst eine grundlegende Architektur festgelegt werden, wie sich der MCP Server und das LLM im Gesamtsystem positionieren.
Diese Variante empfiehlt sich vor allem in der Anfangsphase. „Chat-Clients” erlauben einen sehr einfachen Einstieg in den Umgang mit LLMs. Zudem lassen sich so schnell MCP Server und die dazu passenden Prompts für fachliche Use-Cases entwickeln. Bei Bedarf kann ein eigener MCP Client als Plugin in einen Chat-Client integriert werden.
Je weiter sich der POC-Use-Case entwickelt und je mehr Fachlichkeit umgesetzt wird, desto mehr drängt sich Variante 2 auf. Für komplexere Themen werden nach und nach mehr Informationen vom Nutzer abgefragt, welche sich strukturiert wesentlich einfacher erfassen lassen, als in einer Freitexteingabe. Zudem ist so eine Federated Knowledge Architecture auf bestimmte fachliche Kontexte ausgerichtet. So muss sich eine Architektur, die sich ums Bauwesen kümmert, kein Wissen zu speziellen Tieren zur Verfügung stellen, obwohl sie auf Datentöpfe zugreift, die sich gleichzeitig mit Themen aus der Zoologie in Sachen Tier- und Umweltschutz überschneiden.
Der Einstieg in MCP ist im Grunde sehr einfach: Datensilos gibt es bereits genügend. Meist sind diese auch bereits mit einer API versehen. Auch wenn es nur eine Datenbank ist, kann diese problemlos an einen MCP Server angeschlossen werden. Die MCP Server Community entwickelt am laufenden Band fertige Integrationen, um zum Beispiel APIs, die per OpenAPI beschrieben sind, automatisch in MCP Features umzusetzen. Auch gibt es für viele Datenbanken bereits fertige Adapter. Das Gute an dem MCP Server: dieser muss im ersten Schritt selber gar nicht so viel machen. Er vermittelt lediglich zwischen dem LLM und dem Datensilo. Die Logik, die die Daten nimmt und verarbeitet, steht im Prompt selbst und wird vom LLM ausgeführt. Komplexere MCP Features werden sich mit der Zeit entwickeln, je mehr Use-Cases umgesetzt werden.
Die Frage nach dem richtigen LLM ist relativ komplex. Um das Thema nicht unnötig aufzublähen, hier ein paar Grundgedanken, die dabei zu beachten sind, die neben dem allgemeinen Leistungsspektrum eines LLM berücksichtigt werden sollten.
Hinweis zu gpt-oss (Open-Weight-LLMs): Mit der Vorstellung von gpt-oss-120b und gpt-oss-20b, die unter Apache-2.0-Open-Weights veröffentlicht wurden, verschiebt sich die Balance im Architektur-Muster deutlich: Lokaler Betrieb wird günstiger, souveräner und leistungsfähiger. FKA kann so modell-agnostisch bleiben – ein Wechsel zu gpt-oss erfolgt einfach über eine andere Modellreferenz im MCP-Layer, ohne Architekturänderungen. Weiterhin bleibt Governance durch Prompt-Logging, Evaluierungen und Sicherheitstrainings essenziell.
Grundsätzlich sollte eine LLM so integriert werden, dass diese ausgetauscht werden kann. Dafür eignen sich gängige Architekturmuster. Die Welt der LLMs dreht sich schnell, somit ist es sehr wahrscheinlich, dass die Modelle nach und nach ausgetauscht werden müssen. Dies kann sowohl aus Gründen der Kostenoptimierung und der Steigerung der digitalen Souveränität kommen, als auch regulatorische Vorgaben, die einen zwingen zu wechseln.
Nachdem die technischen Rahmenbedingungen gesetzt sind, muss nur noch losgelegt werden. Da sich durch Initiativen wie Big Data, Open Data und Data Spaces in Unternehmen und Behörden zahlreiche Datensilos gebildet haben, findet sich bestimmt ein passendes Silo, mit dem angefangen werden kann.
Die Diskussion um offene Daten und semantische Interoperabilität mündet in einem klaren Appell: Daten dürfen nicht länger allein gesammelt und bereitgestellt werden; sie müssen gezielt eingesetzt werden, um Innovationen voranzutreiben. Die Vision einer Federated Knowledge Architecture, basierend auf dem Model Context Protocol (MCP) und der intelligenten Verknüpfung von Open Data mit domänenspezifischen Industry Data Spaces, ist hierbei richtungsweisend.
Paradigmenwechsel zu zielgerichteter Datennutzung: Anstatt Daten lediglich zu veröffentlichen, sollten offene Schnittstellen geschaffen werden, die ihre semantische Integration und KI-gestützte Verwertbarkeit fördern. Die Implementierung leichtgewichtiger MCP-Server ermöglicht schnelles Prototyping und unterstützt die Verbindung zu bestehenden APIs und Datenquellen.
Empfehlungen:
Schlussgedanke: Es liegt an Europas Akteuren, den nächsten Schritt zu wagen. Vom Datensammeln zum Wissensschaffen: Dieser Paradigmenwechsel bedeutet nicht nur ein technisch-organisatorisches, sondern auch ein strategisches Umdenken. Wer Daten in kollaborativen Netzwerken und durch innovative KI-Dienste in Wert setzt, ebnet den Weg zu einer echten Wissensgesellschaft. Die digitale Souveränität wird dabei nicht nur ein begleitender Aspekt, sondern der Kern einer neuen Ära datengetriebener Innovation.

Wir begleiten Sie auf Ihrem Weg – unabhängig davon, an welchem Punkt Sie sich gerade befinden.