# Azure Open AI-Integration Integrieren Sie ServiceDesk Plus mit Ihrer Azure OpenAI-Ressource, um KI-gestützte Funktionen zu aktivieren, die Helpdesk-Abläufe vereinfachen. Sobald Azure OpenAI aktiviert ist, wird die standardmäßige ChatGPT-Integration automatisch deaktiviert. ### Voraussetzungen Bevor Sie die Integration konfigurieren, stellen Sie sicher, dass Sie im Azure-Portal Folgendes bereithalten: - Ein aktives Azure-Abonnement mit bereitgestellter Azure OpenAI-Ressource. - Die Ressourcen-URL Ihres Azure OpenAI-Dienstes (in der Regel im Format https://.openai.azure.com). - Ein in Ihrer Azure OpenAI-Ressource bereitgestelltes Modell. Notieren Sie sich die Kategorie des Basismodells, den genauen Modellnamen (z. B. gpt-4.1) und den im Deployment definierten Modellnamen. - Ein API-Schlüssel mit Berechtigung für den Zugriff auf das konfigurierte Azure OpenAI-Deployment. - Administratorzugriff auf ServiceDesk Plus (SDAdmin). Hinweis: Stellen Sie sicher, dass das ausgewählte Modell die Mindestanforderungen für jede KI-Funktion erfüllt, die Sie aktivieren möchten. Details zur Modellkompatibilität finden Sie unter „Wichtige Hinweise“. ## Azure OpenAI aktivieren So greifen Sie auf die Azure OpenAI-Konfigurationsseite zu: 1. Navigieren Sie zu **Admin** > **Apps & Add-ons** > **Integrationen** > **Drittanbieter**. 2. Klicken Sie auf **Azure OpenAI**. 3. Aktivieren Sie das Kontrollkästchen „Azure OpenAI aktivieren“, um die Integration zu aktivieren. **Wichtig**: Durch das Aktivieren von Azure OpenAI wird die standardmäßige ChatGPT-Integration automatisch deaktiviert. ### Die Verbindung konfigurieren Sobald Azure OpenAI aktiviert ist, geben Sie die Verbindungsdetails wie unten beschrieben ein. **Ressourcen-URL** Geben Sie die Endpunkt-URL Ihres Azure OpenAI-Dienstes ein. Sie finden sie im Azure-Portal im Abschnitt „Schlüssel und Endpunkt“ Ihrer OpenAI-Ressource. Die URL hat folgendes Format: https://.openai.azure.com **Basismodell** Wählen Sie im Dropdown die in Ihrem Azure OpenAI-Deployment konfigurierte Basismodellkategorie aus. Wenn Ihr Modell nicht aufgeführt ist, wählen Sie „Andere“, um den Modellnamen im nächsten Feld manuell anzugeben. **Modellname** Geben Sie den Modellnamen exakt so ein, wie er in Ihrem Azure OpenAI-Deployment definiert ist. Dieser Wert wird verwendet, um API-Anfragen an das richtige Modell weiterzuleiten. **API-Schlüssel** Geben Sie den im Azure-Portal generierten API-Schlüssel an. Der Schlüssel muss über die Berechtigung verfügen, auf das konfigurierte Azure OpenAI-Deployment zuzugreifen. ### KI-Funktionen aktivieren Nachdem Sie die Verbindungsdetails konfiguriert haben, wählen Sie die KI-Funktionen aus, die Sie aktivieren möchten. Jede Funktion kann einzeln aktiviert oder deaktiviert werden. Verwenden Sie die Berechtigungssteuerung neben jeder Funktion, um festzulegen, welche Benutzer oder Rollen darauf zugreifen können. Klicken Sie auf **Speichern**, um Ihre Konfiguration anzuwenden, oder auf **Abbrechen**, um Änderungen zu verwerfen. ### Funktionsbeschreibungen Die folgende Tabelle beschreibt alle verfügbaren KI-Funktionen, ihre Funktionalität und die standardmäßigen Berechtigungsstufen. | Funktion | Beschreibung | Berechtigung | |---|---|---| | Genehmigungsvorhersage | Sagt Genehmigungsergebnisse für Anfragen automatisch auf Basis historischer Daten voraus. | System | | Ask Zia (Konversations-Chatbot) | Aktiviert den Zia-Konversations-Chatbot mit Azure OpenAI. Kann nur aktiviert werden, wenn ein unterstütztes Modell (GPT-4.1 oder höher) konfiguriert ist. | System | | Post-Incident-Review generieren | Erstellt automatisch Inhalte für Post-Incident-Reviews anhand von Anfrage- und Incident-Daten. Die besten Ergebnisse werden mit Modellen mit größerem Kontext erzielt. | System | | Vorhersage zur Wiedereröffnung | Sagt die Wahrscheinlichkeit voraus, dass eine Anfrage nach dem Schließen erneut geöffnet wird. | System | | Zia Agent — Incident-Review-Zusammenfasser | Erstellt automatisch eine prägnante Zusammenfassung von Incident-Reviews, um die Analyse nach einem Vorfall zu beschleunigen. | System | | Zia Agent — L1-Support-Agent | KI-gestützter First-Level-Support-Agent, der bei der Bearbeitung und Priorisierung eingehender Anfragen unterstützt. | System | | Zia Agent — Agent zur Anfragelösung | Unterstützt bei der Identifizierung und Empfehlung von Lösungsschritten für Anfragen auf Basis von Kontext und Verlauf. | System | | Classic Bot — LLM fragen | Ermöglicht Benutzern, über den Classic Bot direkt Fragen an das konfigurierte Sprachmodell zu stellen. | Alle (konfigurierbar) | | Classic Bot — Kontextbezogener Lösungsvorschlag | Schlägt relevante Lösungen basierend auf dem Anfragekontext vor, wenn Benutzer mit dem Classic Bot interagieren. Funktioniert am besten mit Modellen, die eine größere Kontextlänge unterstützen. | Alle (konfigurierbar) | | Classic Bot — Lösungen erkunden | Aktiviert KI-gestützte Lösungssuche über die Oberfläche des Classic Bot. | Alle (konfigurierbar) | | Classic Bot — Lösungen erkunden während der Anfrageerstellung | Schlägt in Echtzeit relevante Lösungen vor, während Benutzer über den Classic Bot eine Anfrage erstellen. | Alle (konfigurierbar) | | Classic Bot — Vorhersage von Vorlagen | Sagt passende Anfragevorlagen auf Basis der Benutzereingabe voraus und schlägt sie vor. Erweiterte Modelle liefern genauere Vorhersagen. | Alle (konfigurierbar) | | Antwortassistent | Generiert KI-gestützte Antwortvorschläge für Anfragen und Konversationen. | Alle (konfigurierbar) | | Anfragezusammenfassung | Erstellt prägnante Zusammenfassungen von Anfragen und ihren Konversationen für eine schnellere Prüfung. | Alle (konfigurierbar) | ![ ](https://www.manageengine.com/userfiles/866/14262/ckfinder/images/qu/2026/2026_03_02_05_47_481.png) ### Berechtigungen verwalten Jede KI-Funktion verfügt über eine Berechtigungssteuerung, die festlegt, wer darauf zugreifen kann: - Funktionen auf Systemebene (wie Genehmigungsvorhersage und Vorhersage zur Wiedereröffnung) laufen automatisch im Hintergrund und sind nicht rollenbasiert konfigurierbar. - Rollenbasierte Funktionen (wie Antwortassistent und Anfragezusammenfassung) können mithilfe des Dropdowns neben jeder Funktion auf Techniker beschränkt oder für alle Benutzer (Techniker und Anfragesteller) verfügbar gemacht werden. ### Nutzung und Verlauf überwachen Oben rechts auf der Seite „Azure OpenAI-Konfigurationen“ stehen zwei Steuerelemente zur Verfügung: - Nutzungsstatistiken — Überwachen Sie den Azure OpenAI-Tokenverbrauch und Metriken zu API-Aufrufen, um Kosten und Nutzungstrends im Blick zu behalten. - Verlauf anzeigen — Prüfen Sie ein Protokoll aller an der Azure OpenAI-Integration vorgenommenen Konfigurationsänderungen, einschließlich Zeitstempeln und der Benutzer, die diese vorgenommen haben. ### Modellkompatibilität: - Die Funktionen „Ask Zia“ und andere Zia-Agent-Funktionen werden nur mit GPT-4.1 und höher unterstützt. Zu den unterstützten Modellen gehören GPT-4.1, GPT-4.1 mini, GPT-5 und GPT-5.1 mini. Wenn ein niedrigeres Modell konfiguriert wird, können diese Funktionen nicht aktiviert werden. - Anfragezusammenfassung, Vorhersage von Vorlagen, kontextbezogener Lösungsvorschlag und Post-Incident-Review funktionieren am besten mit GPT-4o-mini und höherwertigen Modellen. - gpt-3.5-turbo wird für grundlegende Funktionen unterstützt; aufgrund von Token-Beschränkungen können Antworten bei langen Konversationen oder komplexen Anfragen jedoch abgeschnitten oder weniger detailliert sein. - Stellen Sie sicher, dass das ausgewählte Basismodell und der Modellname die Mindestanforderungen für jede Funktion erfüllen, bevor Sie diese aktivieren.