Come usare Gemma 4 di Google gratis con Claude Code e Antigravity: la guida completa per sviluppatori (2026)
Abbandonare gli abbonamenti per abbracciare la potenza dell'IA locale, privata e ad alte prestazioni.
Nel 2026 pagare per ogni token di AI per coding non ha più senso. Grazie a Ollama e al potentissimo modello open-source Gemma 4 di Google, puoi avere un’esperienza simile a Claude Code completamente gratuita, privata e in esecuzione sul tuo PC.
In questo articolo ti spiego passo-passo come configurare tutto, sia in Visual Studio Code che nella nuova piattaforma agentica di Google: Antigravity.
Perché questo setup è rivoluzionario
- Zero costi — Niente abbonamenti Anthropic, OpenAI o Gemini a pagamento.
- Privacy totale — Tutto resta sul tuo computer, nessun dato esce.
- Prestazioni eccellenti — Gemma 4 è uno dei modelli open più forti del momento per coding e ragionamento.
- Compatibilità — Funziona con l’interfaccia familiare di Claude Code e con il nuovo IDE agent-first di Google.
Requisiti minimi
- Almeno 16 GB di RAM (meglio 32 GB per modelli più grandi)
- VS Code o Antigravity installato
- Node.js
- Connessione internet solo per il download iniziale
Passo 1: Installa Ollama
Ollama è lo strumento più semplice per eseguire modelli AI in locale.
Su macOS e Windows vai su ollama.com, scarica e installa. Su Linux apri il terminale e digita:
curl -fsSL https://ollama.com/install.sh | sh
Passo 2: Scarica Gemma 4
Scegli la versione più adatta al tuo hardware:
- Leggera (8-12 GB RAM):
ollama pull gemma4:e2b - Raccomandata (16+ GB RAM):
ollama pull gemma4:e4b - Massima potenza (32 GB+ RAM):
ollama pull gemma4:27b
// Verifica e avvio
ollama list
ollama serve
Passo 3: Configura Claude Code in VS Code
Apri le impostazioni JSON di VS Code (Ctrl + Shift + P → Preferences: Open User Settings (JSON)) e aggiungi:
"claude-code.env": {
"ANTHROPIC_BASE_URL": "http://localhost:11434",
"ANTHROPIC_API_KEY": "ollama",
"ANTHROPIC_AUTH_TOKEN": "ollama"
}
Passo 4: Usa Google Antigravity (L’IDE del futuro)
Google Antigravity (antigravity.google) è un fork evoluto di VS Code progettato per lavorare con agenti autonomi e browser control. Collegare Gemma 4 è semplicissimo:
- Vai in Agent Settings → Aggiungi Custom Provider.
- Base URL:
http://localhost:11434/v1 - API Key:
ollama - Model Name:
gemma4:e4b
5. L'Architettura di Gemma 4: Efficienza Neurale
Cosa rende Gemma 4 così speciale rispetto ai suoi predecessori? Google ha implementato un'architettura ibrida che mescola i classici Transformer con elementi di Recurrent Neural Networks (RNN) per migliorare la gestione della memoria a lungo termine senza esplosione dei requisiti di calcolo. Questo permette al modello di mantenere una coerenza logica impressionante anche in file di codice molto lunghi.
Inoltre, l'uso del Grouped-Query Attention (GQA) riduce drasticamente l'overhead della memoria durante l'inferenza, permettendo alla versione "e4b" di girare fluidamente anche su laptop con soli 16GB di RAM, offrendo una velocità di generazione che spesso supera quella dei modelli cloud via API.
6. Gestione del Contesto e Context Sharding
Uno dei limiti storici dei modelli locali era la finestra di contesto ristretta. Gemma 4 supporta nativamente fino a 128k token, ma gestirli su hardware consumer richiede astuzia. Attraverso il Context Sharding implementato in Ollama, il modello è in grado di scaricare e caricare dinamicamente parti del contesto sulla VRAM della GPU o sulla RAM di sistema.
Per noi sviluppatori, questo significa poter "iniettare" interi moduli del nostro progetto nel prompt senza bloccare il computer. Antigravity sfrutta questa capacità per analizzare i file correlati mentre scrivi, offrendo suggerimenti che tengono conto della struttura globale del software e non solo delle ultime dieci righe scritte.
7. Fine-Tuning e LoRA: Personalizza il tuo Assistente
Il vero potere di Gemma 4 risiede nella sua adattabilità. Se lavori con framework di nicchia o librerie proprietarie, puoi eseguire un Fine-Tuning leggero tramite LoRA (Low-Rank Adaptation). Questo processo richiede solo poche ore e permette di "insegnare" al modello gli standard di coding specifici della tua azienda o del tuo progetto.
Immagina un assistente che conosce a memoria ogni singola funzione della tua utility library interna e che non suggerisce mai pattern deprecati. Questo livello di personalizzazione è ciò che separa un semplice utente di IA da un vero AI Engineer.
8. Il Manifesto Local-First
Perché insisto tanto sul locale? Perché nel 2026 l'indipendenza tecnologica è una forma di libertà. Dipendere da API esterne significa essere vulnerabili a cambi di prezzo, downtime e, soprattutto, a potenziali violazioni della privacy del codice.
Abbracciare il Local-First Development significa riprendere il controllo totale della propria workstation. Gemma 4 non è solo un modello; è il simbolo di un'epoca in cui l'intelligenza è diventata un'utility distribuita, alla portata di chiunque abbia la curiosità di configurarla.
Conclusione: La Stazione di Sviluppo Definitiva
Configurando Gemma 4 con Ollama e Antigravity, hai trasformato il tuo laptop in una vera centrale operativa di IA professionale, con costi operativi pari a zero. Questa è la combinazione definitiva del 2026 per chi vuole scalare la propria produttività senza compromettere la sicurezza o il budget.
Il codice è tuo. L'IA è locale. Il futuro è ora. Buon coding.