Azure Open AI-Integration

Integrieren Sie ServiceDesk Plus mit Ihrer Azure OpenAI-Ressource, um KI-gestützte Funktionen zu aktivieren, die Helpdesk-Abläufe vereinfachen. Sobald Azure OpenAI aktiviert ist, wird die standardmäßige ChatGPT-Integration automatisch deaktiviert.

Voraussetzungen   

Bevor Sie die Integration konfigurieren, stellen Sie sicher, dass Sie im Azure-Portal Folgendes bereithalten:

  • Ein aktives Azure-Abonnement mit bereitgestellter Azure OpenAI-Ressource.

  • Die Ressourcen-URL Ihres Azure OpenAI-Dienstes (in der Regel im Format https://<resource-name>.openai.azure.com).

  • Ein in Ihrer Azure OpenAI-Ressource bereitgestelltes Modell. Notieren Sie sich die Kategorie des Basismodells, den genauen Modellnamen (z. B. gpt-4.1) und den im Deployment definierten Modellnamen.

  • Ein API-Schlüssel mit Berechtigung für den Zugriff auf das konfigurierte Azure OpenAI-Deployment.

  • Administratorzugriff auf ServiceDesk Plus (SDAdmin).

Hinweis: Stellen Sie sicher, dass das ausgewählte Modell die Mindestanforderungen für jede KI-Funktion erfüllt, die Sie aktivieren möchten. Details zur Modellkompatibilität finden Sie unter „Wichtige Hinweise“.

 Azure OpenAI aktivieren   

So greifen Sie auf die Azure OpenAI-Konfigurationsseite zu:

  1. Navigieren Sie zu Admin > Apps & Add-ons > Integrationen > Drittanbieter.

  2. Klicken Sie auf Azure OpenAI.

  3. Aktivieren Sie das Kontrollkästchen „Azure OpenAI aktivieren“, um die Integration zu aktivieren.

Wichtig: Durch das Aktivieren von Azure OpenAI wird die standardmäßige ChatGPT-Integration automatisch deaktiviert.

Die Verbindung konfigurieren   

Sobald Azure OpenAI aktiviert ist, geben Sie die Verbindungsdetails wie unten beschrieben ein.

Ressourcen-URL  

Geben Sie die Endpunkt-URL Ihres Azure OpenAI-Dienstes ein. Sie finden sie im Azure-Portal im Abschnitt „Schlüssel und Endpunkt“ Ihrer OpenAI-Ressource. Die URL hat folgendes Format:

https://<resource-name>.openai.azure.com

Basismodell  

Wählen Sie im Dropdown die in Ihrem Azure OpenAI-Deployment konfigurierte Basismodellkategorie aus. Wenn Ihr Modell nicht aufgeführt ist, wählen Sie „Andere“, um den Modellnamen im nächsten Feld manuell anzugeben.

Modellname  

Geben Sie den Modellnamen exakt so ein, wie er in Ihrem Azure OpenAI-Deployment definiert ist. Dieser Wert wird verwendet, um API-Anfragen an das richtige Modell weiterzuleiten.

API-Schlüssel  

Geben Sie den im Azure-Portal generierten API-Schlüssel an. Der Schlüssel muss über die Berechtigung verfügen, auf das konfigurierte Azure OpenAI-Deployment zuzugreifen.

KI-Funktionen aktivieren  

Nachdem Sie die Verbindungsdetails konfiguriert haben, wählen Sie die KI-Funktionen aus, die Sie aktivieren möchten. Jede Funktion kann einzeln aktiviert oder deaktiviert werden. Verwenden Sie die Berechtigungssteuerung neben jeder Funktion, um festzulegen, welche Benutzer oder Rollen darauf zugreifen können.

Klicken Sie auf Speichern, um Ihre Konfiguration anzuwenden, oder auf Abbrechen, um Änderungen zu verwerfen.

Funktionsbeschreibungen  

Die folgende Tabelle beschreibt alle verfügbaren KI-Funktionen, ihre Funktionalität und die standardmäßigen Berechtigungsstufen.

Funktion

Beschreibung

Berechtigung

Genehmigungsvorhersage

Sagt Genehmigungsergebnisse für Anfragen automatisch auf Basis historischer Daten voraus.

System

Ask Zia (Konversations-Chatbot)

Aktiviert den Zia-Konversations-Chatbot mit Azure OpenAI. Kann nur aktiviert werden, wenn ein unterstütztes Modell (GPT-4.1 oder höher) konfiguriert ist.

System

Post-Incident-Review generieren

Erstellt automatisch Inhalte für Post-Incident-Reviews anhand von Anfrage- und Incident-Daten. Die besten Ergebnisse werden mit Modellen mit größerem Kontext erzielt.

System

Vorhersage zur Wiedereröffnung

Sagt die Wahrscheinlichkeit voraus, dass eine Anfrage nach dem Schließen erneut geöffnet wird.

System

Zia Agent — Incident-Review-Zusammenfasser

Erstellt automatisch eine prägnante Zusammenfassung von Incident-Reviews, um die Analyse nach einem Vorfall zu beschleunigen.

System

Zia Agent — L1-Support-Agent

KI-gestützter First-Level-Support-Agent, der bei der Bearbeitung und Priorisierung eingehender Anfragen unterstützt.

System

Zia Agent — Agent zur Anfragelösung

Unterstützt bei der Identifizierung und Empfehlung von Lösungsschritten für Anfragen auf Basis von Kontext und Verlauf.

System

Classic Bot — LLM fragen

Ermöglicht Benutzern, über den Classic Bot direkt Fragen an das konfigurierte Sprachmodell zu stellen.

Alle (konfigurierbar)

Classic Bot — Kontextbezogener Lösungsvorschlag

Schlägt relevante Lösungen basierend auf dem Anfragekontext vor, wenn Benutzer mit dem Classic Bot interagieren. Funktioniert am besten mit Modellen, die eine größere Kontextlänge unterstützen.

Alle (konfigurierbar)

Classic Bot — Lösungen erkunden

Aktiviert KI-gestützte Lösungssuche über die Oberfläche des Classic Bot.

Alle (konfigurierbar)

Classic Bot — Lösungen erkunden während der Anfrageerstellung

Schlägt in Echtzeit relevante Lösungen vor, während Benutzer über den Classic Bot eine Anfrage erstellen.

Alle (konfigurierbar)

Classic Bot — Vorhersage von Vorlagen

Sagt passende Anfragevorlagen auf Basis der Benutzereingabe voraus und schlägt sie vor. Erweiterte Modelle liefern genauere Vorhersagen.

Alle (konfigurierbar)

Antwortassistent

Generiert KI-gestützte Antwortvorschläge für Anfragen und Konversationen.

Alle (konfigurierbar)

Anfragezusammenfassung

Erstellt prägnante Zusammenfassungen von Anfragen und ihren Konversationen für eine schnellere Prüfung.

Alle (konfigurierbar)




Berechtigungen verwalten  

Jede KI-Funktion verfügt über eine Berechtigungssteuerung, die festlegt, wer darauf zugreifen kann:

  • Funktionen auf Systemebene (wie Genehmigungsvorhersage und Vorhersage zur Wiedereröffnung) laufen automatisch im Hintergrund und sind nicht rollenbasiert konfigurierbar.

  • Rollenbasierte Funktionen (wie Antwortassistent und Anfragezusammenfassung) können mithilfe des Dropdowns neben jeder Funktion auf Techniker beschränkt oder für alle Benutzer (Techniker und Anfragesteller) verfügbar gemacht werden.

Nutzung und Verlauf überwachen  

Oben rechts auf der Seite „Azure OpenAI-Konfigurationen“ stehen zwei Steuerelemente zur Verfügung:

  • Nutzungsstatistiken — Überwachen Sie den Azure OpenAI-Tokenverbrauch und Metriken zu API-Aufrufen, um Kosten und Nutzungstrends im Blick zu behalten.

  • Verlauf anzeigen — Prüfen Sie ein Protokoll aller an der Azure OpenAI-Integration vorgenommenen Konfigurationsänderungen, einschließlich Zeitstempeln und der Benutzer, die diese vorgenommen haben.

Modellkompatibilität:

  • Die Funktionen „Ask Zia“ und andere Zia-Agent-Funktionen werden nur mit GPT-4.1 und höher unterstützt. Zu den unterstützten Modellen gehören GPT-4.1, GPT-4.1 mini, GPT-5 und GPT-5.1 mini. Wenn ein niedrigeres Modell konfiguriert wird, können diese Funktionen nicht aktiviert werden.

  • Anfragezusammenfassung, Vorhersage von Vorlagen, kontextbezogener Lösungsvorschlag und Post-Incident-Review funktionieren am besten mit GPT-4o-mini und höherwertigen Modellen.

  • gpt-3.5-turbo wird für grundlegende Funktionen unterstützt; aufgrund von Token-Beschränkungen können Antworten bei langen Konversationen oder komplexen Anfragen jedoch abgeschnitten oder weniger detailliert sein.

  • Stellen Sie sicher, dass das ausgewählte Basismodell und der Modellname die Mindestanforderungen für jede Funktion erfüllen, bevor Sie diese aktivieren.