Interoperabilitätsstack

Referenzmuster für interoperable Kompetenzdaten und Nachweise.

Der OSC-Referenzrahmen ordnet den aktuellen Arbeitsstand: Ontologien beschreiben Begriffe, Klassen, Relationen, Regeln und Semantik; Wissensgraphen verbinden Instanzen, Quellen und Evidenzobjekte; Embeddings liefern abgeleitete Vektorsignale für Suche, Matching, Clustering, Empfehlungen und Prognosen. Modell-Outputs gelten dabei nur als Hilfssignale. Diese Trennung bleibt in Piloten sichtbar.

Orientierung

Ein Referenzrahmen für Skill-Daten in Pilotierung und Review.

Die Standards-Seite beschreibt den aktuellen OSC-Arbeitsstand. Sie trennt Ontologie, Wissensgraph, Embeddings, Evidenz, Schnittstellen und Governance so, dass HR, Produktmanagement und Entwicklung dieselben Anforderungen prüfen können.

Semantik

Begriffe und Relationen fachlich stabilisieren

Ontologien beschreiben Begriffe, Klassen, Relationen, Regeln und Semantik. Wissensgraphen verbinden daraus konkrete Skill-Instanzen, Rollen, Lernangebote, Quellen und Evidenzobjekte.

Evidenz

Kompetenzsignale prüfbar einordnen

Credentials, Projekte und Assessments werden mit Herkunft, Version, Kontext und Bewertungslogik verknüpft. Modellwerte und Embeddings bleiben Hilfssignale, keine Kompetenznachweise.

Pilotintegration

Exporte und API als Arbeitsstand planen

Geplante Exportprofile, stabile Identifier, Pflichtfelder und dokumentierte Fehlerfälle machen Schnittstellen in Piloten prüfbar, ohne daraus bereits produktive API-Zusagen abzuleiten.

Wissensgraph-Ontologie

Was das Modell in einfacher Sprache bedeutet.

Das Referenzmodell behandelt nicht jeden Vektor als Standard. Die Ontologie gibt Begriffen Bedeutung. Der Wissensgraph verbindet konkrete Instanzen und Evidenz. Embeddings und LLM-Vektoren helfen, Muster zu finden, bleiben aber technische Signale mit Review-Bedarf.

Struktur vor Automatisierung

Ein Skill-Knoten braucht Kennung, Bezeichnung, Relationen, Quellenbezug, Version und Status, bevor nachgelagerte KI-Funktionen ihn verantwortbar nutzen können.

Verhaltensmuster bleiben kontextgebunden

Verhaltensindikatoren können beobachtet oder abgeleitet sein. Sie brauchen Quelle, Zeitbezug, Kontext und Unsicherheit und ersetzen keine geprüften Kompetenznachweise.

Vier Ebenen

Vier getrennte Ebenen für anschlussfähige Skill-Daten.

Der OSC-Arbeitsstand trennt Ontologie, Wissensgraph, Embeddings und Evidenz. API-/Exportprofile und Governance beschreiben, wie diese Ebenen in Piloten ausgetauscht, geprüft und versioniert werden.

Ebene 1

Ontologie

Kontrollierte Begriffe, Klassen, Relationen, Regeln und Semantik bilden die versionierte Fachsprache.

  • stabile Skill-IDs und bevorzugte Labels
  • Klassen, Relationen, Synonyme und Regeln
  • Versionen, Sprachen und Änderungshistorie
Ebene 2

Wissensgraph

Der Wissensgraph verbindet Skill-Instanzen, Rollen, Lernangebote, Quellen, Relationen und Evidenzobjekte.

  • konkrete Instanzen statt nur Begriffskataloge
  • Quellenbezüge, Relationen und Kontext
  • Verknüpfungen zu Nachweisen und Profilen
Ebene 3

Embeddings

Embeddings sind abgeleitete Vektorrepräsentationen für Suche, Matching, Clustering, Empfehlungen und Prognosen.

  • Ähnlichkeits-, Such- und Cluster-Hilfssignale
  • Modellversion, Datengrundlage und Aktualisierung
  • klare Trennung von Nachweisen und Freigaben
Ebene 4

Evidenz

Evidenzobjekte ordnen Nachweise aus Lernen, Arbeit, Assessment und Zertifizierung mit Provenienz ein.

  • Aussteller, Quelle, Kontext und Zeitpunkt
  • Bewertungslogik, Niveau, Gültigkeit und Prüfstatus
  • Freigaben, Zwecke und dokumentierte Entscheidungen

Zuordnung

Artefakte, Qualitätskriterien und Anwendungen in einem Raster.

Die Tabelle zeigt, was in Pilotprojekten konkret geprüft wird: welche Artefakte vorliegen, woran Qualität erkannt wird und in welchen Anwendungen die Ebene genutzt werden soll.

Zuordnung der Interoperabilitätsebenen zu Artefakten, Qualitätskriterien und typischen Anwendungen des OSC-Referenzmodells.
Ebene Artefakt Qualitätskriterium Anwendung
Ontologie Skill-Katalog, Taxonomie, Ontologie, Mapping-Tabelle Eindeutige IDs, definierte Begriffe, gepflegte Klassen, Relationen, Regeln und Versionen Fachliche Prüfung, Suche, Rollenabgleich und Lernangebots-Mapping
Wissensgraph Graph-Referenzmuster, Relationstabelle, Quellenbezug, Evidenzverknüpfung Nachvollziehbare Instanzen, Relationen, Quellen, Kontext und Aktualisierung Skill-Gaps, Profilabgleich, Portfolioansichten und Systemintegration
Embeddings Vektorrepräsentation, Modellmetadaten, Ähnlichkeitswert, Evaluationsbefund Dokumentierte Modellversion, Datengrundlage, Aktualisierung und klare Kennzeichnung als Hilfssignal Ähnlichkeitssuche, Matching-Vorschläge, Clustering, Empfehlungen und Prognosen
Evidenz Credential-Profil, Portfolio-Eintrag, Assessment-Datensatz, Prüfvermerk Prüfbare Herkunft, Kontext, Gültigkeit, Bewertungslogik, Zweckbindung und Prüfstatus Anerkennungsprozesse, Talentprofile, Qualifizierungspfade und Auditvorbereitung

API- und Exporthinweis

JSON-/CSV-Profile, REST-Pfade und Fehlerkataloge sind geplante Arbeitsstände für Pilotintegrationen. Verbindliche produktive Adressen, Authentifizierung, Ratenbegrenzung und SLAs entstehen erst in einer freigegebenen Spezifikation.

Qualität

Qualität entsteht durch Trennung, Herkunft und Pilotbefunde.

Ein Arbeitsstand wird erst belastbar, wenn Pflichtfelder vollständig sind, Provenienz nachvollziehbar ist und reale Systemdaten geprüft wurden. Ergebnisse aus Pilotierungen werden als Befund dokumentiert, nicht als automatische Standardfreigabe.

Prüfbarkeit

Jede Aussage braucht Herkunft

Version, Herausgeber, Aktualisierung, Datenquelle und Bewertungslogik gehören zum Artefakt. Im Wissensgraphen werden Instanzen, Relationen, Evidenzobjekte, Quellen und Verknüpfungen nachvollziehbar abgelegt.

Nutzbarkeit

Hilfssignale bleiben getrennt

Semantisches HTML, tabellarische Referenzen und geplante Exportprofile greifen ineinander. Abgeleitete Modellwerte können Matching und Suche unterstützen, bleiben aber klar von geprüften Nachweisen und Freigabeentscheidungen getrennt.

Service-Compliance-Test

Eine praktische Prüfung für anschlussfähige Skill-Services.

Der Service-Compliance-Test ist als pilotierbarer Prüfrahmen für digitale Services gedacht. Er unterstützt Teams dabei, Daten, Schnittstellen und Nachweise gegen den OSC-Arbeitsstand zu prüfen. Er ist kein Zertifikat und ersetzt keine finale Standardfreigabe.

Compliance bedeutet hier eine dokumentierte Prüfung gegen den OSC-Arbeitsstand. Sie umfasst Datenfelder, Kompetenznachweise, Schnittstellen und Governance. Sie ist keine Zertifizierung und keine produktive Freigabe.

Datenmodell

Pflichtfelder und Begriffe nachvollziehen

Geprüft wird, ob Skill-IDs, Labels, Relationen, Sprachen, Versionen und Quellen so dokumentiert sind, dass ein Service sie eindeutig verarbeiten kann.

Schnittstelle

Export und Fehlerfälle pilotierbar machen

Ein Pilot kann zeigen, ob Beispielpayloads, Feldformate, Aktualisierungen und Fehlerhinweise verständlich sind. Produktive SLAs oder verbindliche API-Zusagen entstehen daraus nicht.

Evidenz

Nachweise von Hilfssignalen trennen

Credentials, Assessments und Portfolioeinträge werden mit Herkunft und Kontext geprüft. Matching-Werte oder Embeddings bleiben unterstützende Signale, keine abschließenden Nachweise.

Ergebnis des Checks

Das Ergebnis ist ein Befund mit offenen Punkten, Annahmen und möglichen Anpassungen für den nächsten Pilot. Eine Konformitätsaussage entsteht erst, wenn ein freigegebener Standard und ein dafür definierter Prüfprozess vorliegen.

Nächster Schritt

Arbeitsstand für Pilotierung oder Review anfordern.

Interessierte Organisationen können Artefakte, Beispieldaten, Pflichtfelder und Review-Notizen anfragen und einen konkreten Bedarf für die nächste Arbeitsgruppe einbringen.