Durchsuchbare Dokumentation aufrufen | Zurück zur Dokumentationsübersicht
Navigation: Dokumentationen agorum core > agorum core Module und Plugins
Für welche Version verfügbar?
• agorum core pro
Hinweis: Diese Dokumentation bezieht sich auf die aktuellste Version des Plugins ALBERT | AI. Aktualisieren Sie das hier beschriebene Plugin, um die Dokumentation verwenden zu können.
Mithilfe des Plugins ALBERT | AI können Sie agorum core pro um die Möglichkeit zur Nutzung von Künstlicher Intelligenz (KI) erweitern. Sie können dazu agorum core pro mit externen oder lokal gehosteten Large Language Models (LLM/Sprachmodell) verbinden. Dies bedeutet, dass Sie ALBERT als eine Art „Brücke“ verwenden, um mit der Künstlichen Intelligenz zu kommunizieren. Wenn Sie kein lokal gehostetes Sprachmodell verwenden, benötigen Sie dafür ein Konto mit API-Zugriff bei einem oder mehreren externen Anbietern.
Hinweis: Für die KI-Nutzung entstehen Ihnen Kosten bei dem oder den KI-Anbietern, die Sie verwenden. Viele Anbieter erlauben es Ihnen, diese Kosten gezielt zu überwachen, indem Sie die monatliche Nutzung beschränken oder/und eine tagesaktuelle Kostenauflistung zur Verfügung stellen.
Für die Verwendung der KI in agorum core benötigen Sie agorum core pro und dieses Plugin.
Thema | Beschreibung | Link |
---|---|---|
Entscheidungskriterien für KI-Modelle | Dieses Dokument erläutert einige gängige Entscheidungskriterien für KI-Modelle und bietet eine Übersicht über die Anbieter/Modelle, die ALBERT | AI standardmäßig zur Einrichtung anbietet. | Entscheidung für ein KI-Modell |
Thema | Beschreibung | Link |
---|---|---|
Installation | Das Plugin wird über den agorum core plugin manager installiert. | |
Berechtigungen | Das Plugin für andere Benutzer berechtigen. | ALBERT | AI berechtigen |
Einrichtung | KI-Voreinstellungen für die Verwendung von Sprachmodellen in agorum core pro einrichten. | ALBERT | AI KI-Voreinstellungen einrichten |
Eigener KI-Server | Hinweise zum Einrichten eines eigenen KI-Servers mit Ollama | Eigener KI-Server mit Ollama |
Migration | Wenn Sie zuvor das Plugin ALBERT | AI llm verwendet haben, können Sie die Einstellungen migrieren. | agorum core ai llm migrieren |
Thema | Beschreibung | Link |
---|---|---|
Anwendung | Mit ALBERTs Chat arbeiten. | Mit ALBERT | AI chat arbeiten |
Thema | Beschreibung | Link |
---|---|---|
Workflow 3.0 | Das Plugin enthält einen Workflow-Knoten, den Sie verwenden können, um KI in Ihre agorum core Workflows zu integrieren. | Workflow-Knoten KI-Chat |
Entwicklung | Die Hauptbibliothek bietet Funktionen zur Interaktion mit KI-Sprachmodellen. Sie ermöglicht synchrone und asynchrone Chats mit vorgegebenen KI-Modellen. Die Hauptfunktionen sind das synchrone oder asynchrone Aufrufen von KI-Sprachmodellen. | JavaScript-Bibliothek agorum.core.ai |
Diese Bibliothek bietet Funktionen zur Verwaltung von KI-Voreinstellungen, die in der Bibliothek agorum.ai/js/lib/ai verwendet werden. Sie ermöglicht das Erstellen, Abrufen, Aktualisieren und Entfernen von KI-Voreinstellungen. | JavaScript-Bibliothek agorum.ai/js/lib/presets-settings |