Blog · 2 Marzo 2026
Qwen 3.5: La Rivoluzione dei Modelli Piccoli
Un anno fa serviva una GPU da $10.000 per eseguire un modello vision-language decente. Oggi, il modello 4B di Qwen 3.5 gira su un MacBook Air e supera i giganti da 80B dell'anno scorso.
Perché Qwen 3.5 conta
La famiglia Qwen 3.5 di Alibaba introduce un concetto rivoluzionario: modelli piccoli con cervelli grandi. Il modello da 4 miliardi di parametri raggiunge prestazioni alla pari con modelli 20× più grandi grazie a:
- Visione nativa: Qwen 3.5 VL non usa OCR — "vede" i documenti direttamente, comprendendo layout spaziale, tabelle e scrittura a mano.
- Contesto 1M token: Elabora interi fascicoli legali (500+ pagine) in una singola passata.
- Mixture of Experts (MoE): La variante 35B-A3B attiva solo 3B parametri per token, rendendola più veloce di modelli densi 10× più grandi.
Lo spettro hardware
- 🔸 0.8B / 2B — Gira su Raspberry Pi o smartphone. Perfetto per IoT edge.
- ⭐ 4B — Gira su qualsiasi portatile moderno (16 GB RAM). Miglior rapporto prezzo/prestazioni.
- 🔹 9B — Richiede GPU (6 GB+ VRAM). Massima accuratezza per documenti complessi.
- 🔷 35B-A3B (MoE) — Per carichi enterprise su RTX 3090/4090 o Apple Silicon.
DataUnchain + Qwen = accoppiata perfetta
DataUnchain usa Qwen 3.5 VL tramite Ollama per elaborare documenti in locale. Scegli la dimensione del modello in base al tuo hardware — dal Raspberry Pi nel magazzino alla workstation nello studio commercialista.