Sie fragen - wir antworten!

Apps & Leitfäden

So installieren Sie CrewAI mit GUI

Die Fähigkeiten von Modellen neuronaler Netze werden täglich erweitert. Forscher und kommerzielle Unternehmen investieren mehr und mehr in ihre Ausbildung. Aber allein können diese Modelle nicht autonom handeln. Um bestimmte Aufgaben zu lösen, brauchen sie Anleitung: Kontexterweiterung und Richtungsvorgabe. Dieser Ansatz ist nicht immer effizient, insbesondere bei komplexen Problemen.

Was aber, wenn wir einem neuronalen Netz erlauben würden, autonom zu handeln? Und was wäre, wenn wir es mit vielen Werkzeugen ausstatten würden, um mit der Außenwelt zu interagieren? Man erhält einen KI-Agenten, der in der Lage ist, Aufgaben zu lösen, indem er selbständig entscheidet, welche Werkzeuge er verwendet. Klingt kompliziert, aber es funktioniert sehr gut. Doch selbst für einen fortgeschrittenen Benutzer kann die Erstellung eines KI-Agenten von Grund auf eine nicht triviale Aufgabe sein.

Der Grund dafür ist, dass den meisten gängigen Bibliotheken eine grafische Benutzeroberfläche fehlt. Sie erfordern die Interaktion über eine Programmiersprache wie Python. Dies erhöht die Einstiegshürde drastisch und macht KI-Agenten zu komplex für eine eigenständige Implementierung. Genau das ist bei CrewAI der Fall.

Was ist CrewAI?

CrewAI ist eine sehr beliebte und praktische Bibliothek, die jedoch standardmäßig nicht mit einer grafischen Benutzeroberfläche ausgestattet ist. Dies veranlasste unabhängige Entwickler, eine inoffizielle Schnittstelle zu schaffen. Der Open-Source-Charakter von CrewAI machte die Aufgabe viel einfacher, und bald veröffentlichte die Community das Projekt CrewAI Studio.

Entwickler und Enthusiasten erhielten einen tieferen Einblick in die Architektur des Systems und konnten Werkzeuge erstellen, die auf bestimmte Aufgaben zugeschnitten waren. Normale Benutzer konnten KI-Agenten erstellen, ohne eine einzige Zeile Code schreiben zu müssen. Es wurde einfacher, Aufgaben zuzuweisen und den Zugang zu neuronalen Netzen und Tools zu verwalten. Außerdem war es möglich, Agenten von Server zu Server zu exportieren und zu importieren und sie mit Freunden, Kollegen oder der Open-Source-Gemeinschaft zu teilen.

Ein weiterer Vorteil von CrewAI Studio ist seine Flexibilität bei der Bereitstellung. Es kann als normale App oder als Docker-Container installiert werden - die bevorzugte Methode, da sie alle notwendigen Bibliotheken und Komponenten für den Betrieb des Systems enthält.

Installation

Aktualisieren Sie Ihre Betriebssystem-Pakete und installierten Anwendungen auf die neuesten Versionen:

sudo apt update && sudo apt -y upgrade

Verwenden Sie das Skript zur automatischen Treiberinstallation oder folgen Sie unserer Anleitung Installieren Sie Nvidia-Treiber unter Linux:

sudo ubuntu-drivers autoinstall

Starten Sie den Server neu, damit die Änderungen wirksam werden:

sudo shutdown - r now

Installieren Sie nach der erneuten Verbindung über SSH die Apache 2-Webserver-Dienstprogramme, mit denen Sie Zugriff auf den .htpasswd -Dateigenerator erhalten, der für die grundlegende Benutzerauthentifizierung verwendet wird:

sudo apt install -y apache2-utils

Installieren Sie die Docker-Engine mit dem offiziellen Shell-Skript:

curl -sSL https://get.docker.com/ | sh

Fügen Sie Docker Compose zum System hinzu:

sudo apt install -y docker-compose

Klonen Sie das Repository:

git clone https://github.com/strnad/CrewAI-Studio.git

Navigieren Sie zu dem heruntergeladenen Verzeichnis:

cd CrewAI-Studio

Erstellen Sie eine Datei .htpasswd für den Benutzer usergpu. Sie werden zweimal aufgefordert, ein Passwort einzugeben:

htpasswd -c .htpasswd usergpu

Bearbeiten Sie nun die Container-Bereitstellungsdatei. Standardmäßig gibt es zwei Container:

sudo nano docker-compose.yaml

Löschen Sie den Abschnitt:

ports:
  - "5432:5432"

Und fügen Sie den folgenden Dienst hinzu:


nginx:
  image: nginx:latest
  container_name: crewai_nginx
  ports:
    - "80:80"
  volumes:
    - ./nginx.conf:/etc/nginx/nginx.conf:ro
    - ./.htpasswd:/etc/nginx/.htpasswd:ro
  depends_on:
    - web

Nginx benötigt eine Konfigurationsdatei, erstellen Sie also eine:

sudo nano nginx.conf

Fügen Sie das Folgende ein:

events {}

http {
  server {
    listen 80;

    location / {
      proxy_pass http://web:8501;

      # WebSocket headers
      proxy_http_version 1.1;
      proxy_set_header Upgrade $http_upgrade;
      proxy_set_header Connection "upgrade";

      # Forward headers
      proxy_set_header Host $host;
      proxy_set_header X-Real-IP $remote_addr;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      proxy_set_header X-Forwarded-Proto $scheme;

      auth_basic "Restricted Content";
      auth_basic_user_file /etc/nginx/.htpasswd;
    }
  }
}

Alle wichtigen Dienstvariablen für CrewAI sind in der Datei .env definiert. Öffnen Sie die Datei .env_example zur Bearbeitung:

nano .env_example

Fügen Sie die folgenden Zeilen ein:

OLLAMA_HOST="http://open-webui:11434"
OLLAMA_MODELS="ollama/llama3.2:latest"

Und fügen Sie Postgres config hinzu:

POSTGRES_USER="admin"
POSTGRES_PASSWORD="your_password"
POSTGRES_DB="crewai_db"
AGENTOPS_ENABLED="False"

Kopieren Sie nun die Beispieldatei und benennen Sie sie in .env um, damit das System sie während der Containerbereitstellung lesen kann:

cp .env_example .env

In diesem Beispiel werden wir lokale Modelle verwenden, wobei die Inferenz von Ollama durchgeführt wird. Wir empfehlen unseren Leitfaden Open WebUI: Alles in einem, und fügen Sie während des Deployments -e OLLAMA_HOST=0.0.0.0 hinzu, damit sich CrewAI direkt mit dem Ollama-Container verbinden kann. Laden Sie das gewünschte Modell (z. B. llama3.2:latest) über die WebUI oder durch Verbinden mit der Containerkonsole und Ausführen herunter:

ollama pull llama3.2:latest

Sobald alles eingerichtet ist, starten Sie das Deployment:

sudo docker-compose up -d --build

Wenn Sie http://[your_server_ip]/ besuchen, werden Sie zur Eingabe Ihrer Anmeldedaten aufgefordert. Nach korrekter Eingabe erscheint die CrewAI-Oberfläche.

Funktionen

Schauen wir uns die wichtigsten Funktionen von CrewAI an. Dies wird Ihnen helfen zu verstehen, wie Sie Arbeitsabläufe konfigurieren können. Die zentrale Entität in der Agent, ein autonomer Aufgabenausführer. Jeder Agent hat Attribute, die ihm helfen, seine Aufgaben zu erfüllen:

  • Role. Eine kurze, 2-3 Worte umfassende Aufgabenbeschreibung.
  • Backstory. Optional; hilft dem Sprachmodell zu verstehen, wie sich der Agent verhalten soll und auf welche Erfahrungen er sich stützen kann.
  • Goal. Das Ziel, das der Agent verfolgen soll.
  • Allow delegation. Ermöglicht es dem Agenten, Aufgaben (oder Teile davon) an andere zu delegieren.
  • Verbose. Weist den Agenten an, detaillierte Aktionen zu protokollieren.
  • LLM Provider and Model. Legt das zu verwendende Modell und den Anbieter fest.
  • Temperature. Bestimmt die Kreativität der Antwort. Höher = kreativer.
  • Max iterations. Anzahl der Versuche, die der Agent hat, um erfolgreich zu sein; dient als Schutz (z. B. gegen Endlosschleifen).

Agenten arbeiten, indem sie iterativ Eingaben analysieren, Schlussfolgerungen ziehen und die verfügbaren Werkzeuge nutzen.

Die Eingabe wird durch eine Task Entität definiert. Jede Aufgabe enthält eine Beschreibung, einen zugewiesenen Agenten und optional ein erwartetes Ergebnis. Die Aufgaben werden standardmäßig sequentiell ausgeführt, können aber mit dem Flag Async execution parallelisiert werden.

Die autonome Arbeit der Agenten wird durch Tools unterstützt, das die Interaktion mit der realen Welt ermöglicht. CrewAI enthält Werkzeuge für die Websuche, das Parsen von Websites, API-Aufrufe und die Handhabung von Dateien, die den Kontext verbessern und den Agenten helfen, ihre Ziele zu erreichen.

Schließlich gibt es noch Crew entity. Es vereint Agenten mit unterschiedlichen Rollen in einem Team, um komplexe Probleme zu lösen. Sie können miteinander kommunizieren, delegieren, überprüfen und korrigieren und bilden so eine kollektive Intelligenz.

Verwendung von

Nachdem Sie nun mit den Entitäten vertraut sind, lassen Sie uns einen minimalen CrewAI-Workflow erstellen und ausführen. In diesem Beispiel werden wir den globalen Fortschritt bei der Entwicklung von Krebsmedikamenten verfolgen.

Wir werden drei Agenten verwenden:

  1. Oncology Drug Pipeline Analyst - verfolgt neue Entwicklungen von der Frühphase bis zur klinischen Erprobung.
  2. Regulatory and Approval Watchdog - überwacht neue Arzneimittelzulassungen und regulatorische Änderungen.
  3. Scientific Literature and Innovation Scout - scannt wissenschaftliche Veröffentlichungen und Patente im Bereich der Onkologie.

Öffnen Sie den Bereich Wirkstoffe und erstellen Sie den ersten Wirkstoff:

Agent creation

Im Moment verwenden wir das zuvor heruntergeladene Modell llama3.2:latest, aber in einem realen Szenario sollten Sie das Modell wählen, das am besten zur Aufgabe passt. Wiederholen Sie den Vorgang für die übrigen Agenten und fahren Sie mit der Aufgabenerstellung fort.

Task creation

Versammeln Sie alle Agenten zu einem Team und weisen Sie ihnen die vorbereitete Aufgabe zu:

Crew creation

Aktivieren Sie die erforderlichen Werkzeuge aus der Liste:

Tools selection

Gehen Sie schließlich auf die Seite Kickoff! und klicken Sie auf Run Crew!. Nach einigen Iterationen wird das System ein Ergebnis zurückgeben, z. B:

Example CrewAI result

Bevor wir fertig sind, sehen wir uns noch den Bereich Import/export an. Ihr Workflow oder Ihre Crew kann als JSON exportiert werden, um sie auf einen anderen CrewAI Server zu übertragen. Sie können auch eine Single-Page-Anwendung (SPA) mit einem einzigen Klick erstellen - perfekt für den Produktionseinsatz:

Import and export settings

Fazit

CrewAI vereinfacht die Erstellung von KI-Agenten erheblich und ermöglicht die Integration in jede Anwendung oder die eigenständige Nutzung. Die Bibliothek basiert auf der Idee der verteilten Intelligenz, bei der jeder Agent ein Domänenexperte ist und das kombinierte Team einen einzelnen Generalisten-Agenten übertrifft.

Da sie in Python geschrieben ist, lässt sich CrewAI leicht in ML-Plattformen und -Tools integrieren. Seine Open-Source-Natur ermöglicht die Erweiterung durch Module von Drittanbietern. Die Kommunikation zwischen den Agenten reduziert die Verwendung von Token durch die Verteilung der Kontextverarbeitung.

Dadurch können komplexe Aufgaben schneller und effizienter erledigt werden. Die niedrigere Einstiegshürde, die CrewAI Studio bietet, vergrößert die Reichweite von KI-Agenten und Multi-Agenten-Systemen. Und die Unterstützung lokaler Modelle gewährleistet eine bessere Kontrolle über sensible Daten.

Siehe auch:



Aktualisiert: 12.08.2025

Veröffentlicht: 23.07.2025