Technologie

Ollama 0.22.1 bringt Tool Calling von Gemma 4 ohne API-Schlüssel auf den Laptop

Susan Hill

Ollama 0.22.1 liefert einen aktualisierten Gemma-4-Renderer, der endlich die beiden Funktionen unterstützt, auf die es bei ernsthafter lokaler KI-Arbeit ankam: expliziter Thinking-Modus und Funktions- beziehungsweise Tool Calling. Tool Calling lässt das Modell selbst entscheiden, wann es eine externe Funktion aufruft — eine Webseite holen, eine Datenbank abfragen, eine Berechnung anstoßen — und integriert das Ergebnis dann wieder in seine eigene Argumentation. Der Thinking-Modus legt die Zwischenschritte des Modells offen, sodass eine Anwendung sie aufgreifen und darauf reagieren kann. Beides waren Funktionen, für die die großen Cloud-APIs Geld nahmen. Beides läuft jetzt lokal gegen Gemma 4, ohne dass ein externer Dienst beteiligt ist.

Was diese Meldung schwerer wiegen lässt als irgendein anderer Modellrelease, ist die Hardware-Rechnung. Die von Google unter Apache-2.0 veröffentlichte Gemma-4-Familie umfasst vier Größen: E2B, E4B, 26B A4B und 31B. Die kleineren Varianten laufen auf einem aktuellen Laptop mit integrierter Grafik und zwölf bis sechzehn Gigabyte RAM. Die Versionen 26B A4B und 31B brauchen eine Desktop-GPU, bleiben aber klar im Consumer-Bereich. Dieselbe Architektur, für die früher ein bezahlter API-Vertrag oder ein vierstelliger Heimserver fällig war, wird damit zur Installation an einem Samstagnachmittag für jede halbwegs moderne Maschine.

Die praktische Folge für Nicht-Entwickler ist, dass eine ganze Klasse von Agentenanwendungen — die Programme, die E-Mails lesen, Antworten entwerfen, Dokumente holen, Formulare ausfüllen, Meetings zusammenfassen — diese Daten nicht mehr an einen fremden Server schicken muss. Wer Wert auf Privatsphäre legte und echte Agent-Automatisierung wollte, hatte bisher zwei Optionen: der Datenrichtlinie eines Cloud-Anbieters vertrauen oder ein deutlich schwächeres Modell lokal ohne Tool Calling betreiben. Der Mittelweg war eine Lücke, und Ollama 0.22.1 schließt sie für die Gemma-4-Gewichtsklasse.

Die skeptische Lesart ist, dass Ollama und Gemma 4 keine Entsprechungen der Cloud-Spitze sind. Ein lokal gehostetes 31B-Modell reicht beim komplexen Reasoning weder an Claude von Anthropic noch an GPT-5 von OpenAI heran. Die Treffgenauigkeit der Tool-Aufrufe in langen Ketten ist bei den kleineren Varianten spürbar schlechter. Multimodale Eingaben funktionieren, aber langsamer. Und die Integrationsarbeit liegt beim Nutzer: Niemand hat bisher eine ausgereifte Gemma-4-plus-Ollama-Agentenanwendung gebaut, die mit einem fertigen SaaS-Workflow konkurriert. Die Hardware-Decke und die Software-Politur bleiben echte Schwachstellen.

Die Version steht ab sofort über den Standard-Installer von Ollama für macOS, Linux und Windows bereit. Die Gemma-4-Gewichte liegen in der Modellbibliothek von Ollama unter dem Namensraum gemma4, und die Laufzeitänderung in 0.22.1 greift automatisch für jede Größe, sobald sie heruntergeladen ist.

Diskussion

Es gibt 0 Kommentare.