Agent AI to autonomiczny program komputerowy, który potrafi postrzegać otoczenie, planować działania i realizować zadania bez stałego nadzoru człowieka. W odróżnieniu od zwykłego chatbota – który tylko odpowiada na pytania – agent sam wybiera narzędzia, wykonuje je sekwencyjnie i ocenia wyniki.
| Cecha | Chatbot | Agent AI |
|---|---|---|
| Działanie | Odpowiada na jedno pytanie | Realizuje wieloetapowe zadanie |
| Narzędzia | Brak (tylko tekst) | Przeglądarka, kod, API, pliki, bazy |
| Pamięć | Kontekst okna rozmowy | Krótko i długoterminowa (vector DB) |
| Planowanie | Nie | Rozkłada cel na podzadania (ReAct) |
| Autonomia | Wymaga ciągłego nadzoru | Działa do osiągnięcia celu |
Mózg agenta – przetwarza język naturalny i decyduje co zrobić dalej. Popularne modele: Claude 3.5/4 (Anthropic), GPT-4o (OpenAI), Gemini 1.5 Pro (Google). Działają przez API lub lokalnie (Llama 3, Mistral przez Ollama).
Funkcje, które agent może wywoływać: wyszukiwanie w internecie, uruchamianie kodu Python, odczyt/zapis plików, sterowanie API (GPIO, MQTT, REST). Agent sam decyduje kiedy i jakie narzędzie wywołać.
Kontekst bieżącej rozmowy + opcjonalna pamięć długoterminowa w bazie wektorowej (Chroma, Pinecone, Weaviate). Dzięki temu agent "pamięta" poprzednie projekty i preferencje użytkownika.
Agent pracuje w pętli: Observe → Think → Act → Observe →… aż osiągnie cel lub trafi na przeszkodę, którą musi zgłosić człowiekowi.
| Framework | Język | Charakterystyka |
|---|---|---|
| LangChain / LangGraph | Python | Najpopularniejszy, ogromny ekosystem |
| AutoGPT | Python | Pełna autonomia, mniej nadzoru |
| CrewAI | Python | Wiele agentów współpracujących w "zespole" |
| Claude Code (MCP) | CLI | Agent do zadań programistycznych, działa lokalnie |
| Home Assistant Assist | YAML + Python | Lokalny agent do sterowania smart-home |
Opisz naturalnym językiem co chcesz zrobić – agent wygeneruje kompletny szkic Arduino, wyjaśni wybory i wskaże potencjalne problemy. Claude Code może bezpośrednio edytować pliki projektu i uruchamiać kompilator.
Wklej błąd kompilacji lub log serialowy – agent zidentyfikuje przyczynę, zaproponuje poprawkę i wyjaśni co poszło nie tak. Skraca czas debugowania o 60–80% według badań GitHub.
Lokalny agent z Ollama + Home Assistant Assist rozumie komendy po polsku ("włącz ciepłe światło w salonie i ustaw termostat na 22°C") i wykonuje je przez MQTT bez wysyłania danych do zewnętrznych serwerów.
Agent monitoruje dane z temperaturowego czujnika DS18B20 przez 24h i generuje raport: "Temperatura spadła o 4°C między 2:00 a 3:00 – sprawdź szczelność okna w sypialni."
# Zainstaluj Ollama
curl -fsSL https://ollama.ai/install.sh | sh
# Pobierz model (np. Llama 3.1 8B ~5 GB)
ollama pull llama3.1
# Prosty agent Python z narzędziem GPIO
pip install langchain langchain-ollama
# agent_gpio.py
from langchain_ollama import ChatOllama
from langchain.agents import AgentExecutor, create_react_agent
from langchain.tools import tool
@tool
def wlacz_diode(pin: int) -> str:
"""Włącza diodę LED na pinie GPIO Raspberry Pi"""
import RPi.GPIO as GPIO
GPIO.setmode(GPIO.BCM)
GPIO.setup(pin, GPIO.OUT)
GPIO.output(pin, GPIO.HIGH)
return f"Dioda na GPIO{pin} włączona"
llm = ChatOllama(model="llama3.1")
# ... dalsza konfiguracja agenta