CrewAI installeren met GUI

De mogelijkheden van neurale netwerkmodellen groeien met de dag. Onderzoekers en commerciële bedrijven investeren steeds meer in het trainen ervan. Maar op zichzelf kunnen deze modellen niet autonoom handelen. Om specifieke taken op te lossen, hebben ze begeleiding nodig: contextuitbreiding en richtingbepaling. Deze aanpak is niet altijd efficiënt, vooral niet voor complexe problemen.
Maar wat als we een neuraal netwerk autonoom zouden laten handelen? En wat als we het veel tools zouden geven om te interageren met de buitenwereld? Dan zou je een AI-agent krijgen die taken kan oplossen door zelfstandig te bepalen welke hulpmiddelen hij moet gebruiken. Klinkt ingewikkeld, maar het werkt heel goed. Maar zelfs voor een gevorderde gebruiker kan het creëren van een AI-agent vanaf nul een niet-triviale taak zijn.
De reden hiervoor is dat de meeste populaire bibliotheken geen grafische gebruikersinterface hebben. Ze vereisen interactie via een programmeertaal zoals Python. Dit verhoogt de instapdrempel drastisch en maakt AI-agenten te complex voor onafhankelijke implementatie. Dit is precies het geval bij CrewAI.
Wat is CrewAI
CrewAI is een zeer populaire en handige bibliotheek, maar heeft standaard geen GUI. Dit zette onafhankelijke ontwikkelaars aan om een onofficiële interface te maken. De open source aard van CrewAI maakte de taak veel gemakkelijker, en al snel bracht de gemeenschap het project CrewAI Studio uit.
Ontwikkelaars en enthousiastelingen kregen meer inzicht in de architectuur van het systeem en konden tools bouwen die op maat gemaakt waren voor specifieke taken. Gewone gebruikers konden AI-agenten maken zonder ook maar één regel code te schrijven. Het werd eenvoudiger om taken toe te wijzen en de toegang tot neurale netwerken en tools te beheren. Het werd ook mogelijk om agents te exporteren en importeren van server naar server en ze te delen met vrienden, collega's of de open source gemeenschap.
Een ander voordeel van CrewAI Studio is de flexibiliteit van de implementatie. Het kan worden geïnstalleerd als een gewone app of als een Docker-container - de voorkeursmethode omdat deze alle benodigde bibliotheken en componenten bevat om het systeem te laten draaien.
Installatie
Update je OS-pakketten en geïnstalleerde apps naar de nieuwste versies:
sudo apt update && sudo apt -y upgrade
Gebruik het script voor automatische installatie van het stuurprogramma of volg onze handleiding Installeer Nvidia-stuurprogramma's in Linux:
sudo ubuntu-drivers autoinstall
Start de server opnieuw op zodat de wijzigingen van kracht worden:
sudo shutdown - r now
Nadat u opnieuw verbinding hebt gemaakt via SSH, installeert u Apache 2 webserverhulpprogramma's, waardoor u toegang krijgt tot de .htpasswd bestandsgenerator die wordt gebruikt voor basisgebruikersauthenticatie:
sudo apt install -y apache2-utils
Installeer Docker Engine met het officiële shellscript:
curl -sSL https://get.docker.com/ | sh
Docker Compose toevoegen aan het systeem:
sudo apt install -y docker-compose
Kloon de repository:
git clone https://github.com/strnad/CrewAI-Studio.git
Navigeer naar de gedownloade map:
cd CrewAI-Studio
Maak een .htpasswd bestand aan voor de usergpu gebruiker. Je wordt twee keer gevraagd om een wachtwoord in te voeren:
htpasswd -c .htpasswd usergpu
Bewerk nu het container deployment bestand. Standaard zijn er twee containers:
sudo nano docker-compose.yaml
Verwijder de sectie:
ports:
- "5432:5432"
En voeg de volgende service toe:
nginx:
image: nginx:latest
container_name: crewai_nginx
ports:
- "80:80"
volumes:
- ./nginx.conf:/etc/nginx/nginx.conf:ro
- ./.htpasswd:/etc/nginx/.htpasswd:ro
depends_on:
- web
Nginx heeft een config-bestand nodig, dus maak er een aan:
sudo nano nginx.conf
Plak het volgende erin:
events {}
http {
server {
listen 80;
location / {
proxy_pass http://web:8501;
# WebSocket headers
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection "upgrade";
# Forward headers
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
auth_basic "Restricted Content";
auth_basic_user_file /etc/nginx/.htpasswd;
}
}
}
Alle belangrijke servicevariabelen voor CrewAI zijn gedefinieerd in het bestand .env. Open het bestand .env_example om het te bewerken:
nano .env_example
Voeg de volgende regels toe:
OLLAMA_HOST="http://open-webui:11434"
OLLAMA_MODELS="ollama/llama3.2:latest"
En voeg Postgres config toe:
POSTGRES_USER="admin"
POSTGRES_PASSWORD="your_password"
POSTGRES_DB="crewai_db"
AGENTOPS_ENABLED="False"
Kopieer nu het voorbeeldbestand en hernoem het naar .env zodat het systeem het kan lezen tijdens het uitrollen van de container:
cp .env_example .env
In dit voorbeeld gebruiken we lokale modellen met inferentie afgehandeld door Ollama. We raden onze gids Open WebUI: Alles in één, en voeg tijdens de implementatie -e OLLAMA_HOST=0.0.0.0 toe zodat CrewAI rechtstreeks verbinding kan maken met de Ollama-container. Download het gewenste model (bijvoorbeeld llama3.2:latest) via WebUI of door verbinding te maken met de containerconsole en uit te voeren:
ollama pull llama3.2:latest
Zodra alles is ingesteld, start je de deployment:
sudo docker-compose up -d --build
Als u nu http://[your_server_ip]/ bezoekt, wordt u gevraagd in te loggen. Na correcte invoer verschijnt de CrewAI interface.
Functies
Laten we eens kijken naar de belangrijkste entiteiten die CrewAI gebruikt. Dit zal je helpen te begrijpen hoe je workflows kunt configureren. De centrale entiteit in de Agent, een autonome taakuitvoerder. Elke agent heeft attributen die hem helpen zijn taken uit te voeren:
- Role. Een korte taakbeschrijving van 2-3 woorden.
- Backstory. Optioneel; helpt het taalmodel te begrijpen hoe de agent zich moet gedragen en op welke ervaringen hij moet vertrouwen.
- Goal. Het doel dat de agent moet nastreven.
- Allow delegation. Stelt de agent in staat om taken (of delen daarvan) aan anderen te delegeren.
- Verbose. Vertelt de agent om gedetailleerde acties te loggen.
- LLM Provider and Model. Specificeert het model en de provider om te gebruiken.
- Temperature. Bepaalt de creativiteit van het antwoord. Hoger = creatiever.
- Max iterations. Aantal pogingen dat de agent moet doen om te slagen, als beveiliging (bijvoorbeeld tegen oneindige lussen).
Agenten werken door iteratief input te analyseren, te redeneren en conclusies te trekken met behulp van beschikbare hulpmiddelen.
Input wordt gedefinieerd door een Task entiteit. Elke taak bevat een beschrijving, een toegewezen agent en optioneel een verwacht resultaat. Taken worden standaard sequentieel uitgevoerd, maar kunnen worden geparallelliseerd met de vlag Async execution.
Autonoom agent werk wordt ondersteund door Tools die real-world interactie mogelijk maakt. CrewAI bevat tools voor het zoeken op het web, het parsen van sites, API-oproepen en bestandsverwerking, die de context verbeteren en agenten helpen doelen te bereiken.
Tot slot is er de Crew entity. Deze verenigt agenten met verschillende rollen in een team om complexe problemen aan te pakken. Ze kunnen met elkaar communiceren, delegeren, beoordelen en corrigeren, en vormen zo een collectieve intelligentie.
Met behulp van
Nu je bekend bent met de entiteiten, laten we een minimale CrewAI workflow bouwen en uitvoeren. In dit voorbeeld volgen we de wereldwijde voortgang in de ontwikkeling van medicijnen tegen kanker.
We gebruiken drie agenten:
- Oncology Drug Pipeline Analyst - volgt nieuwe ontwikkelingen van vroege stadia tot klinische proeven.
- Regulatory and Approval Watchdog - volgt nieuwe goedkeuringen van medicijnen en wijzigingen in de regelgeving.
- Scientific Literature and Innovation Scout - scant wetenschappelijke publicaties en patenten met betrekking tot oncologie.
Open de sectie Agenten en maak de eerste agent aan:

Voor nu gebruiken we het eerder gedownloade llama3.2:latest model, maar in een echt scenario kiest u het model dat het beste bij de taak past. Herhaal het proces voor de overige agents en ga verder met het maken van de taak.

Verzamel alle agenten in een ploeg en wijs hen de voorbereide taak toe:

Activeer de benodigde gereedschappen uit de lijst:

Ga tot slot naar de pagina Kickoff! en klik op Run Crew! Na enkele iteraties zal het systeem een resultaat teruggeven, zoals:

Voordat we afsluiten, controleren we de sectie Import/export. Je workflow of crew kan geëxporteerd worden als JSON om over te zetten naar een andere CrewAI server. Je kunt ook met één klik een Single-Page Application (SPA) maken - perfect voor productie-implementatie:

Conclusie
CrewAI vereenvoudigt het maken van AI-agenten aanzienlijk en maakt integratie in elke applicatie of standalone gebruik mogelijk. De bibliotheek is gebaseerd op het idee van gedistribueerde intelligentie, waarbij elke agent een domeinexpert is en het gecombineerde team beter presteert dan een enkele generalistische agent.
Omdat CrewAI in Python is geschreven, kan het gemakkelijk worden geïntegreerd met ML-platforms en -tools. Het open source karakter maakt uitbreiding door modules van derden mogelijk. Inter-agent communicatie vermindert het tokengebruik door contextverwerking te verdelen.
Hierdoor worden complexe taken sneller en efficiënter uitgevoerd. De lagere instapdrempel van CrewAI Studio vergroot het bereik van AI-agents en multi-agent systemen. En ondersteuning voor lokale modellen zorgt voor betere controle over gevoelige gegevens.
Zie ook:
Bijgewerkt: 12.08.2025
Gepubliceerd: 23.07.2025