top of page

KI in der OKR-Arbeit: Klarer, schneller, datenschutzkonform

  • Autorenbild: OKR Institut
    OKR Institut
  • vor 3 Tagen
  • 5 Min. Lesezeit

Aktualisiert: vor 2 Tagen

Im OKR-Alltag passiert es manchmal: Ziele werden im Laufe der Zeit zu breit, KRs messen Nebensächliches und Ungenauigkeiten schleichen sich ein. Gängige KI-Assistenten (beispielsweise ChatGPT, Google Gemini, Microsoft Copilot, etc.) können hier spürbar helfen – aber nur, wenn man sie bewusst einsetzt und dabei zwei Dinge im Blick behält: Sicherheit und Nutzen.


Erst das Fundament: Sicherheit und Governance

Bevor Sie die erste Zeile an eine KI schicken, sollten die Spielregeln klar sein. Denn ohne verlässliche Leitplanken entstehen schnell große Risiken, gerade wenn sensible Geschäftsdaten im Spiel sind. Der wichtigste Grundsatz lautet: Keine personenbezogenen Daten, keine Betriebsinterna, keine Kundengeheimnisse in offene Chats. Niemals. Punkt.


Alles, was Rückschlüsse auf Personen, Verträge oder interne Abläufe erlaubt, hat in frei zugänglichen Systemen wie dem normalen ChatGPT im Browser nichts verloren. Wenn Sie eine KI im Unternehmenskontext einsetzen, nutzen Sie immer eine Team- oder Enterprise-Version oder einen API-Zugang mit sauber konfigurierten Sicherheitseinstellungen.


Auch technische Genauigkeit schützt nicht vor typischen Schwachstellen. KI-Systeme klingen oft überzeugend, auch wenn Zahlen oder Quellen frei erfunden sind. Deshalb gilt: Zahlen nur aus den eigenen Systemen ziehen, Quellen in der Ausgabe anfordern und kritische Aussagen doppelt prüfen. Ebenso wichtig ist die Vielfalt der Daten. Wenn im Input nur die lautesten Themen vorkommen, verstärkt die KI diese Muster – und leise, aber möglicherweise wichtigere Probleme geraten aus dem Blickfeld.


Und schließlich braucht es Ordnung: Fünf verschiedene Assistenten, die alle parallel im Einsatz sind, sorgen für mehr Chaos als Nutzen. Legen Sie daher fest, welche Tools offiziell genutzt werden, wer dafür verantwortlich ist und wo Ergebnisse und Entscheidungen zentral abgelegt werden. Sie brauchen dafür kein 40seitiges AI-Manual, sondern ein paar klare Leitplanken: Wer darf was, mit welchen Daten und wofür. Das reicht.


Wo KI in OKR-Arbeit wirklich hilft

Wenn diese Basis steht, entfaltet KI ihre Stärke dort, wo es im Alltag hakt: beim Strukturieren, Verdichten und Formulieren. Das klingt unspektakulär, ist im OKR-Kontext aber enorm hilfreich.


Ein Beispiel: Ein Beratungsunternehmen möchte das Kundenerlebnis nach Projekten verbessern. Die KI fragt nach greifbaren Signalen, etwa, wie viele Rückmeldungen positiv sind, wie schnell Feedback eingeholt wird und wie oft Anschlussaufträge folgen. Statt „Kundenbeziehungen stärken“ lautet das Ziel dann: „Rücklaufquote auf Projektfeedbacks von 40% auf 80% erhöhen“ oder „Anschlussaufträge innerhalb von sechs Monaten von 2 auf 5 steigern.“ Damit verschiebt sich die Diskussion: nicht mehr, ob Kunden zufrieden sind, sondern woran wir es konkret sehen.

Am Zyklusstart liefern KI-Assistenten einen schnellen Überblick, wenn sie mit den richtigen Informationen gefüttert werden, etwa die strategischen Ziele des Unternehmens, die OKR-Sets des letzten Zyklus mit Ergebnissen sowie Umsatztrends, Kundenabwanderung, etc. Daraus entstehen erste Zielentwürfe mit zwei bis drei Key Results, die das Team anschließend prüft, nachschärft und entscheidet. So spart man wertvolle Zeit und landet näher an den tatsächlichen Problemen.


In den wöchenlichen Check-Ins geht es um Fokus statt um Protokolle. Eine gute Zusammenfassung umfasst höchstens eine halbe Seite in einem einheitlichen Format: Wo stehen wir bei den einzelnen KRs? Welche Entscheidungen wurden zuletzt getroffen? Wo klemmt es? Die KI kann diese Informationen aus internen Systemen aufbereiten und einen Wochenfokus vorschlagen. Das Team entscheidet dann bewusst, was wirklich zählt.


Und in der Reflexion/Retro liefert KI eine sachliche Grundlage, wenn sie Muster sichtbar macht: „In drei von sieben wöchentlichen Check-Ins wurden Entscheidungen verschoben, weil Daten fehlten.“ Solche Beobachtungen führen zu konkreten Maßnahmen, etwa klare Datenverantwortlichkeiten, Überarbeitung der Datenpools oder andere Reporting-Zyklen. Das fließt dann direkt in das Playbook des nächsten Zyklus ein.


Was in der Praxis wirklich zählt

Gute Ergebnisse entstehen nicht durch Magie, sondern durch guten Input. Je klarer der Kontext, desto brauchbarer die Antworten. Beschreiben Sie also immer, worum es geht, welche Daten relevant sind und in welcher Form das Ergebnis gebraucht wird, zB ob eine Seite für die Geschäftsführung oder fünf Stichpunkte fürs Team.


Fordern Sie die KI ausdrücklich auf, auf Wirkung statt Arbeitspakete zu achten. Die entscheidende Frage lautet nicht: "Was tun wir?", sondern: "Woran sehen wir, dass wir dem Ziel näher kommen?" Und beginnen Sie klein. Zwei einfache Anwendungsfälle reichen: der Qualitätscheck Ihrer Key Results und eine wöchentliche Zusammenfassung mit Fokusvorschlag. Erst wenn das funktioniert, können Sie schrittweise mehr Datenquellen anbinden.


Wichtig bleibt das Vier-Augen-Prinzip. Eine KI liefert Entwürfe, keine Entscheidungen. Erst die menschliche Bewertung macht aus einem Text ein verlässliches Ergebnis.




Fazit

KI ist kein Zauberstab, aber ein nützliches Werkzeug für die OKR-Arbeit, um Strategiearbeit messbarer und fokussierter zu machen. Richtig eingesetzt spart sie Zeit, verhindert Nebenschauplätze und bringt Bewegung in die Kennzahlen, die wirklich zählen. Entscheidend ist die Reihenfolge: erst Sicherheit, dann Nutzen.


Wer klare Regeln hat, sauberen Input liefert und seine Ergebnisse überprüft, wird erleben, dass KI im OKR-Alltag kein Fremdkörper ist, sondern ein stiller, aber äußerst wirkungsvoller Assistent.



Tipps für die Praxis

Grundsätzliches

Im Unternehmenskontext kann man KI nur dann sinnvoll einsetzen, wenn drei Bedingungen erfüllt sind:


  1. Daten bleiben unter Kontrolle des Unternehmens

  2. Verarbeitung erfolgt auf klar definierten, auditierbaren Systemen

  3. Ergebnisse sind nachvollziehbar und überprüfbar


Wenn auch nur einer dieser Punkte fehlt, ist der Einsatz rechtlich und organisatorisch riskant!

Was man nicht tun sollte

Viele Unternehmen glauben, sie könnten einfach ChatGPT im Browser öffnen und sensible Themen „anonym“ eingeben. ABER: Selbst wenn man keine Namen schreibt, reichen oft wenige Projektdetails, Kundennamen oder Zahlen, um Rückschlüsse zu ziehen.


Fazit: Offene, cloudbasierte Public-KIs (zB ChatGPT Free, Perplexity, Copilot im Browser) sind für produktive Unternehmensarbeit nicht DSGVO-konform einsetzbar, solange personenbezogene oder vertrauliche Daten verarbeitet werden.

Was man stattdessen tun kann

a) Enterprise- oder Team-Versionen großer Anbieter
  • Beispiele: ChatGPT Team/Enterprise, Microsoft Copilot for 365, Google Gemini for Workspace.

  • Diese Varianten speichern keine Prompts für Trainingszwecke und erlauben eine organisationsweite Kontrolle der Datenflüsse.

  • Man kann Audit-Logs aktivieren, Zugriff auf bestimmte Gruppen beschränken und Nutzungsrichtlinien zentral verwalten.


Vorteil: Kein Entwicklungsaufwand, sofort einsatzbereit.

Nachteil: Daten liegen weiterhin bei US-Anbietern. Für viele EU-Unternehmen ist das rechtlich heikel, insbesondere bei sensiblen Kundendaten oder Betriebsgeheimnissen.



b) EU-gehostete KI-Plattformen (Private Cloud)
  • Anbieter wie Aleph Alpha (Heidelberg), Mistral (Frankreich) oder OpenGPTX (deutsche Initiative) bieten Modelle, die in europäischen Rechenzentren laufen.

  • Hier kann man APIs oder Chat-Interfaces nutzen, die innerhalb des europäischen Rechtsraums bleiben.

  • Manche Anbieter (zB Aleph Alpha Luminous) bieten sogar On-Premise-Installationen, bei denen die KI auf der eigenen Serverinfrastruktur läuft.


Vorteil: Datenhoheit bleibt gewahrt.

Nachteil: Kostspieliger und technisch aufwendiger in der Integration (zB bei interner Authentifizierung oder Security-Audits).



c) Kleinere, interne Modelle („Private LLMs“)
  • Unternehmen können ein eigenes Sprachmodell feintunen oder lokal hosten – zB Llama 3, Mistral 7B, Phi-3, etc.

  • Diese Modelle laufen komplett auf eigenen Servern oder in einem abgeschotteten Cloud-Cluster.

  • Mit Tools wie Ollama, LM Studio, PrivateGPT oder GPT4All lässt sich so eine „interne ChatGPT-Variante“ mit kontrolliertem Zugriff betreiben.


Vorteil: Maximale Kontrolle und Datenschutz.

Nachteil: Aufwendig zu warten (Hardware, Updates, Security, Fine-Tuning, Prompt-Logs).Für KMU realistisch nur mit IT-Partner oder Managed-Service-Anbieter.


Datenhoheit in der Praxis behalten

Datenhoheit bedeutet nicht, dass man alles selbst hosten muss. Sie bedeutet, dass man jederzeit weiß, wo welche Daten liegen, wer sie verarbeitet und wofür sie verwendet werden.


Praktisch heißt das:

  • Zugriffsbeschränkungen (nur autorisierte User)

  • Klare Klassifikation der Eingaben (unkritisch / kritisch / tabu)

  • Kein Training auf Kundendaten (per Vertrag ausgeschlossen)

  • Logging und Nachvollziehbarkeit der Nutzung

  • Ein einfaches internes Policy-Dokument: „Was darf in die KI, was nicht.“


Viele Unternehmen implementieren das als interne Richtlinie oder KI-Charta, gekoppelt mit einer kurzen Schulung.


Der realistische Mittelweg für KMU

Für mittelständische Unternehmen ist das praktikabelste Setup meist:

  • ChatGPT Team oder Microsoft Copilot for 365 für Office-konforme Anwendungen (Text, Zusammenfassungen, E-Mails etc.)

  • Interne Regeln & Freigaben, welche Datentypen verwendet werden dürfen

  • Kein Upload sensibler oder personenbezogener Inhalte

  • Evtl. ergänzend: Zugriff auf ein EU-gehostetes Modell (Aleph Alpha, Mistral) für sensible Fälle


Damit erreicht man etwa 80% der Effizienzgewinne, ohne die Governance zu verletzen.




bottom of page