Durchsuchbare Dokumentation aufrufen | Zurück zur Dokumentationsübersicht
Navigation: Dokumentationen agorum core
Hinweis: Diese Dokumentation bezieht sich auf die aktuellste Version des Plugins. Aktualisieren Sie das hier beschriebene Plugin, um die Dokumentation verwenden zu können.
Mithilfe des Plugins agorum core ai llm verbinden Sie agorum core mit einem Large Language Model (LLM/Sprachmodell) und können dadurch künstliche Intelligenz in agorum core verwenden. Sie können Chats aus agorum core starten und wiederkehrende Chat-Befehle (Prompts) als Templates für sich und andere hinterlegen.
Hinweis: Sie benötigen ein OpenAI-Konto und für Azure OpenAI zusätzlich ein Azure-Konto, um die Schnittstelle zu diesen KI-Plattformen zu konfigurieren.
Alternativ zur Verwendung eines kommerziellen Large Language Models (LLM) können Sie auch ein selbst betriebenes LLM mit agorum core verwenden, wenn es über eine OpenAI-kompatible REST-Schnittstelle verfügt wie LM Studio.
Das Plugin installieren und deinstallieren Sie über den agorum core plugin manager.
Thema | Beschreibung | Link |
---|---|---|
Anwendung | Mit der KI in agorum core chatten. | Mit der KI in agorum core chatten |
Thema | Beschreibung | Link |
---|---|---|
Berechtigungen | Das Plugin für andere Benutzer berechtigen. | agorum core ai llm berechtigen |
Konfigurationen | Das Plugin konfigurieren. | agorum core ai llm konfigurieren |
Thema | Beschreibung | Link |
---|---|---|
Workflow 3.0 | Die KI in Workflow-Knoten verwenden. | Knoten Chat OpenAI GPT verwenden Knoten Chat Azure OpenAI GPT verwenden |