Durchsuchbare Dokumentation aufrufen

Zurück zur Dokumentationsübersicht

agorum core ai llm

Hinweis: Diese Dokumentation bezieht sich auf die aktuellste Version des Plugins. Aktualisieren Sie das hier beschriebene Plugin, um die Dokumentation verwenden zu können.

Mithilfe des Plugins agorum core ai llm verbinden Sie agorum core mit einem Large Language Model (LLM/Sprachmodell) und können dadurch künstliche Intelligenz in agorum core verwenden. Sie können Chats aus agorum core starten und wiederkehrende Chat-Befehle (Prompts) als Templates für sich und andere hinterlegen.

Hinweis: Sie benötigen ein OpenAI-Konto und für Azure OpenAI zusätzlich ein Azure-Konto, um die Schnittstelle zu diesen KI-Plattformen zu konfigurieren.

Alternativ zur Verwendung eines kommerziellen Large Language Models (LLM) können Sie auch ein selbst betriebenes LLM mit agorum core verwenden, wenn es über eine OpenAI-kompatible REST-Schnittstelle verfügt wie LM Studio.

Das Plugin installieren/deinstallieren


Das Plugin installieren und deinstallieren Sie über den agorum core plugin manager.

Anwendung


Thema Beschreibung Link
Anwendung Mit der KI in agorum core chatten. Mit der KI in agorum core chatten

Administration


Thema Beschreibung Link
Berechtigungen Das Plugin für andere Benutzer berechtigen. agorum core ai llm berechtigen
Konfigurationen Das Plugin konfigurieren. agorum core ai llm konfigurieren

Entwicklung


Thema Beschreibung Link
Workflow 3.0 Die KI in Workflow-Knoten verwenden. Knoten Chat OpenAI GPT verwenden
Knoten Chat Azure OpenAI GPT verwenden