Durchsuchbare Dokumentation aufrufen | Zurück zur Dokumentationsübersicht
Navigation: Dokumentationen agorum core > ALBERT | AI
Hinweis: Diese Dokumentation bezieht sich auf die aktuellste Version des Plugins ALBERT | AI. Aktualisieren Sie das hier beschriebene Plugin, um die Dokumentation verwenden zu können.
ALBERT | AI stellt einen speziellen Suchfilter bereit, mit dem Sie alle KI-Voreinstellungen (Presets) in Ihrem System durchsuchen, filtern und verwalten können. Der Filter ist über die ACIC-Suche verfügbar und bietet sechs Filtergruppen.
Der Suchfilter KI-Voreinstellungen steht in der Suche als eigener Filterbereich zur Verfügung.
Standardmäßig ist der Filter Aktiv vorausgewählt, sodass nur aktive Voreinstellungen angezeigt werden.
Der Suchfilter bietet sechs Filtergruppen, mit denen Sie die Voreinstellungen gezielt eingrenzen können:
Filtern Sie die KI-Voreinstellungen nach ihren Grundeinstellungen:
| Filter | Beschreibung |
|---|---|
| Aktiv | Zeigt nur aktive Voreinstellungen an. Dieser Filter ist standardmäßig aktiviert. |
| Im Chat verwendbar | Zeigt Voreinstellungen, die in ALBERTs Chat verwendet werden können. |
| Standard | Zeigt Voreinstellungen, die als Standardkonfiguration für ALBERTs Chat festgelegt sind. |
| Ausgelieferte Setups | Zeigt Voreinstellungen, die mit einem Plugin ausgeliefert (deployed) wurden. |
| Kein Projekt | Zeigt Voreinstellungen, die keinem Projekt zugeordnet sind. |
| Referenz-Setup | Zeigt Voreinstellungen, die als Referenz auf eine andere Voreinstellung konfiguriert sind. |
| Modell-Setup | Zeigt Voreinstellungen, die ein eigenes KI-Modell konfiguriert haben (keine reinen Referenzen). |
Filtern Sie die KI-Voreinstellungen nach den Fähigkeiten des konfigurierten KI-Modells:
| Filter | Beschreibung |
|---|---|
| Text/Chat | Das Sprachmodell (LLM) unterstützt Textgenerierung und Chat-Funktionen. |
| Vision/Bilder | Das Sprachmodell (LLM) kann Bilder erkennen und analysieren. |
| Tools | Das Sprachmodell (LLM) unterstützt Tool-Aufrufe (Function Calling) für KI-Agenten. |
| Code-Interpreter | Das Sprachmodell (LLM) kann Code ausführen und Dateien erstellen. |
Filtern Sie die KI-Voreinstellungen nach dem KI-Anbieter (z. B. OpenAI, Anthropic, Google Gemini, Mistral). Das System ermittelt die verfügbaren Anbieter automatisch aus den vorhandenen Voreinstellungen.
Filtern Sie die KI-Voreinstellungen nach dem konfigurierten Sprachmodell (z. B. gpt-4o, claude-3-5-sonnet, gemini-2.0-flash). Voreinstellungen ohne Modell, die auf eine andere KI-Voreinstellung verweisen, werden unter Kein Modell aufgeführt.
Filtern Sie die KI-Voreinstellungen nach dem zugeordneten Konfigurationsprojekt. Voreinstellungen ohne Projektzuordnung werden unter Kein Projekt aufgeführt.
Filtern Sie die KI-Voreinstellungen nach ihrer Gruppierung. Gruppen können in der KI-Voreinstellung angegeben werden und dienen dazu, Voreinstellungen thematisch zu organisieren (z. B. nach Einsatzzweck oder Abteilung). Voreinstellungen ohne Gruppe werden unter Keine Gruppe aufgeführt.
Sie können mehrere Filter gleichzeitig aktivieren, um die Ergebnisse weiter einzugrenzen. Beispiele: