Perché DataUnchain Soluzioni Costi Tecnologia Blog GitHub ↗
Italiano English
Blog · 2 Marzo 2026

Qwen 3.5: La Rivoluzione dei Modelli Piccoli

Un anno fa serviva una GPU da $10.000 per eseguire un modello vision-language decente. Oggi, il modello 4B di Qwen 3.5 gira su un MacBook Air e supera i giganti da 80B dell'anno scorso.

Perché Qwen 3.5 conta

La famiglia Qwen 3.5 di Alibaba introduce un concetto rivoluzionario: modelli piccoli con cervelli grandi. Il modello da 4 miliardi di parametri raggiunge prestazioni alla pari con modelli 20× più grandi grazie a:

  • Visione nativa: Qwen 3.5 VL non usa OCR — "vede" i documenti direttamente, comprendendo layout spaziale, tabelle e scrittura a mano.
  • Contesto 1M token: Elabora interi fascicoli legali (500+ pagine) in una singola passata.
  • Mixture of Experts (MoE): La variante 35B-A3B attiva solo 3B parametri per token, rendendola più veloce di modelli densi 10× più grandi.

Lo spettro hardware

  • 🔸 0.8B / 2B — Gira su Raspberry Pi o smartphone. Perfetto per IoT edge.
  • 4B — Gira su qualsiasi portatile moderno (16 GB RAM). Miglior rapporto prezzo/prestazioni.
  • 🔹 9B — Richiede GPU (6 GB+ VRAM). Massima accuratezza per documenti complessi.
  • 🔷 35B-A3B (MoE) — Per carichi enterprise su RTX 3090/4090 o Apple Silicon.

DataUnchain + Qwen = accoppiata perfetta

DataUnchain usa Qwen 3.5 VL tramite Ollama per elaborare documenti in locale. Scegli la dimensione del modello in base al tuo hardware — dal Raspberry Pi nel magazzino alla workstation nello studio commercialista.