Nachdem wir uns im ersten Teil mit dem grundlegenden Dashboard befasst haben (Datenschutz in Copilot), geht es nun ans Eingemachte: Die Copilot Einstellungen. Während die Übersicht uns zeigt, wer Copilot nutzt, legen wir hier fest, wie die KI mit Daten umgeht und wo die Grenzen deines Tenants verlaufen.
Für IT-Administratoren ist dieser Bereich das wichtigste Werkzeug, um die Balance zwischen maximaler KI-Produktivität und strengen europäischen Datenschutzvorgaben zu halten. In diesem Artikel schauen wir uns an, wie du die EU Data Boundary optimal nutzt, den Zugriff auf das Web steuerst und die Anbindung externer Agents sicher verwaltest.
Im Reiter Benutzerzugriff steuerst du, wie Copilot in verschiedenen Schnittstellen deines Unternehmens erscheint und wer Zugriff auf spezielle Vorschau-Funktionen erhält. Hier legst du fest, ob Benutzer eigenständig Lizenzen erwerben können und wie tief die KI in die Administrator-Oberflächen integriert wird.

Opal (Frontier)


Microsoft Copilot for Sicherheit




Microsoft 365 Copilot-Self-Service-Käufe


Microsoft 365 Copilot-Apps an die Windows-Taskleiste anheften



Microsoft 365 Copilot in Admin Centern


Microsoft 365 Copilot Chat anheften



Copilot-Abrechnung mit nutzungsbasierter Bezahlung













Copilot in Edge


Copilot in Bing, Edge und Windows


Copilot Frontier




Dieser Reiter ist die Schaltzentrale für den Informationsfluss. Während du beim „Benutzerzugriff“ steuerst, wer Copilot nutzen darf, definierst du hier, woher Copilot sein Wissen bezieht (Web vs. Intern) und welche KI-Modelle im Hintergrund arbeiten dürfen.

Websuche nach Microsoft 365 Copilot und Microsoft 365 Copilot Chat


People Skills in Microsoft 365 Copilot




KI-Anbieter & Unterauftragsverarbeiter (Wichtig!)




Empfehlungen für die Microsoft 365 Copilot-Lizenzierung



Datensicherheit und Compliance


Copilot in Power Plattform und Dynamics 365



Agents



Im Reiter Copilot-Aktionen verlässt du die Ebene der reinen Datenfreigabe und definierst das konkrete Verhalten der KI. Hier geht es nicht mehr nur darum, worauf Copilot zugreifen darf, sondern was er aktiv generieren soll und wie transparent er dabei gegenüber deinen Nutzern auftritt.
Vom verpflichtenden Haftungsausschluss über die Freigabe kreativer Features (Bild- & Videogenerierung) bis hin zur sensiblen Steuerung in Teams-Meetings: In diesem Bereich konfigurierst du die Balance zwischen einer modernen User Experience und den notwendigen Compliance-Leitplanken deines Unternehmens.

KI-Haftungsausschluss für Copilot


Copilot-Videogenerierung



Copilot-Bildgenerierung


Copilot in Teams-Besprechungen



Der Tab Andere Einstellungen bündelt administrative Funktionen, die nicht direkt den Zugriff oder den Datenfluss steuern, sondern den operativen Betrieb und die Qualitätssicherung betreffen. Hier findest du Werkzeuge für den Support-Fall und zur Anpassung der Spracherkennung.

Copilot-Diagnoseprotokolle


Copilot-Benutzerwörterbuch


Der Faktor Mensch & Recht
Nachdem wir die technischen Schalter im Admin Center justiert haben, müssen wir den Blick weiten. Eine erfolgreiche Copilot-Einführung steht und fällt mit der Transparenz gegenüber der Belegschaft und dem Bewusstsein für neue Sicherheitsrisiken.
1. Transparenz & DSGVO-Konformität | Technisch kannst du Copilot aktivieren, aber rechtlich musst du deine Mitarbeitenden mitnehmen.
- Informationspflicht (Art. 13 DSGVO): Informiere alle Betroffenen proaktiv über den Einsatz der KI. Kläre darüber auf, wie Prompts verarbeitet werden, wie lange sie gespeichert werden und welche Zwecke die Datenverarbeitung verfolgt.
- Betriebsrat: Die Möglichkeiten zur Leistungsüberwachung (z. B. über das Admin-Feedback oder Logs) machen Copilot oft mitbestimmungspflichtig. Dokumentiere klar, welche Auswertungen technisch möglich sind und welche nicht durchgeführt werden (Selbstverpflichtung).
2. Datenhoheit für Endanwender (My Account) | Datenschutz ist keine Einbahnstraße. Gib deinen Nutzern Werkzeuge an die Hand, um ihre eigene Privatsphäre zu wahren.
- Selbstverwaltung: Zeige deinen Mitarbeitenden das „My Account“-Portal. Dort können sie ihren eigenen Copilot-Aktivitätsverlauf einsehen und gespeicherte Prompts sowie Antworten eigenständig löschen.
- Vertrauen: Das Wissen, dass man den eigenen Chatverlauf bereinigen kann, erhöht die Akzeptanz der KI-Tools massiv.
3. Schutz vor Prompt-Injection & Awareness | Copilot bringt neue Angriffsvektoren mit sich, die eine klassische Firewall nicht abfängt.
- Die Gefahr: Bei „Prompt-Injection“-Angriffen versuchen Dritte, die Sicherheitsfilter der KI durch manipulative Eingaben zu umgehen. Microsoft integriert zwar technische „Jailbreak“-Filter, doch diese sind kein Allheilmittel.
- Der menschliche Schutzwall: Technische Filter müssen durch organisatorische Maßnahmen ergänzt werden.
- Schulung: Sensibilisiere Nutzer regelmäßig, niemals Passwörter oder hochkritische Geheimnisse (z. B. Private Keys) in Prompts einzugeben.
- Kritischer Umgang: Inhalte aus externen Quellen (z. B. eine zusammengefasste Phishing-Mail oder eine manipulierte Website) können die KI austricksen. Nutzer müssen lernen, KI-Ergebnisse stets zu verifizieren.
4. Das Sicherheitsnetz: Purview & DLP | Wie bereits im Abschnitt „Datenzugriff“ erwähnt, ist Microsoft Purview deine Lebensversicherung gegen Datenabfluss.
- Automatisierter Schutz: Nutze Sensitivity Labels und DLP-Richtlinien, um sicherzustellen, dass vertrauliche Daten (HR-Akten, Patente) technisch gar nicht erst von Copilot verarbeitet oder ausgegeben werden dürfen.
- Speicherung: Behalte im Hinterkopf, dass Copilot-Daten in speziellen, verborgenen Exchange-Ordnern liegen. Deine Retention Policies (Aufbewahrungsrichtlinien) müssen explizit prüfen, ob diese KI-Daten genauso lange gespeichert werden sollen wie normale E-Mails oder Chats.
Sei der Erste und starte die Diskussion mit einem hilfreichen Beitrag.
Kommentar hinterlassen
Dein Beitrag wird vor der Veröffentlichung kurz geprüft — fachlich, respektvoll und auf den Punkt ist hier genau richtig.