Perché DataUnchain Soluzioni Costi Tecnologia Blog GitHub ↗
Italiano English
🔬 Confronto Tecnico

L'OCR è morto.
Benvenuto nell'era VLM.

Per 30 anni l'OCR è stato l'unico modo per estrarre dati dai documenti. Oggi i Vision Language Model fanno qualcosa che l'OCR non potrà mai fare: capiscono ciò che leggono.

Nessun template · Nessuna regola manuale · Il modello vede e comprende

📜 Il Vecchio Mondo

OCR + Template: 30 anni di limiti

L'OCR (Optical Character Recognition) è nato negli anni '90. Il suo funzionamento è semplice: scansiona l'immagine del documento, riconosce i singoli caratteri e li converte in testo digitale. Fin qui, funziona. Il problema è il passo successivo: per estrarre dati strutturati (numero fattura, P.IVA, totale), serve un template — una mappa che dice al software "il numero fattura è nella posizione X,Y della pagina".

Questo approccio ha un difetto fondamentale: ogni fornitore ha un layout diverso. Ogni volta che cambia un fornitore, cambia un layout, o arriva un documento leggermente diverso, il template si rompe. Il sistema non "capisce" il documento — conosce solo coordinate. Se la fattura è ruotata di 2 gradi, se c'è una macchia sul totale, se la tabella ha una colonna in più: errore.

In 30 anni di sviluppo, l'OCR non ha mai risolto questo problema. Ha solo aggiunto layer di complessità: pre-processing delle immagini, deskew automatico, zone recognition. Ma il limite è strutturale: l'OCR riconosce caratteri, non comprende significati.

OCR tradizionale — log errori tipici
Fattura_001.pdf → Template "Fornitore A" applicato
⚠ Campo "totale" non trovato — posizione (412,680) fuori range
Fattura_002.pdf → Template "Fornitore B" applicato
✗ Errore: "l" riconosciuto come "1" — totale 1.250 → l.250
DDT_003.pdf → Nessun template corrispondente
✗ Errore: documento non riconosciuto — richiede template manuale
Fattura_004.pdf → Template "Fornitore A" applicato
⚠ Documento ruotato 3° — coordinate disallineate
✗ P.IVA estratta: "IT0238B5120" — caratteri corrotti
Accuratezza media: 72% su documenti misti
Template necessari: 1 per ogni layout fornitore
Vision Language Model — stessa batch
Fattura_001.pdf → Analisi visiva completa
✓ Totale: €1.250,00 — identificato semanticamente (campo "Totale Fattura")
Fattura_002.pdf → Layout mai visto prima
✓ Tutti i campi estratti — il modello comprende il contesto
DDT_003.pdf → Documento diverso, nessun template
✓ Classificato come DDT — estratti: mittente, destinatario, righe merce
Fattura_004.pdf → Documento ruotato, macchia su P.IVA
✓ P.IVA: IT02385120XX — ricostruita dal contesto semantico
Accuratezza: 95.5% su 219 documenti reali
Template necessari: 0 — zero
👁️ Il Nuovo Mondo

VLM: il modello che vede e capisce

Un Vision Language Model (VLM) è un modello di intelligenza artificiale che "guarda" il documento come farebbe un essere umano. Non riconosce singoli caratteri: comprende l'intero layout, le relazioni tra campi, la struttura delle tabelle, il significato dei numeri nel contesto.

Quando un VLM legge una fattura, non cerca "il testo alla coordinata X,Y". Capisce che quel numero nell'angolo in basso a destra, sotto la parola "Totale", è il totale della fattura. Lo capisce anche se il documento è ruotato, macchiato, scritto a mano, o in un layout che non ha mai visto prima.

Zero template. Zero regole manuali. Zero manutenzione. Il modello riceve un prompt ("estrai numero fattura, P.IVA, totale...") e restituisce un JSON strutturato. Cambiare tipo di documento significa cambiare il prompt — non riscrivere il software.

Confronto diretto

OCR tradizionale vs Vision Language Model — campo per campo.

Caratteristica
OCR Tradizionale
Vision LM (DataUnchain)
Comprensione layout
Coordinate fisse
Comprensione semantica
Documenti storti/ruotati
Errori frequenti
Gestiti nativamente
Tabelle complesse
Spesso fallisce
Comprende la struttura
Scrittura a mano
Non supportata
Supportata
Nuovo fornitore
Richiede nuovo template
Funziona subito
Manutenzione template
Continua e costosa
Zero
Comprensione semantica
Nessuna
Piena
Tempo di setup
Giorni/settimane per fornitore
2 ore totali
Accuratezza tipica
70-85% su documenti misti
95.5% benchmark certificato
Costo per pagina
€0.01-0.10 (cloud) + template
€0 — licenza flat, nessun costo/pagina
📊 Benchmark Certificato

Numeri reali, documenti reali

Il nostro VLM proprietario testato su 219 documenti aziendali italiani autentici — fatture, DDT, note credito, ricevute, buste paga, contratti.

95.5%
Accuratezza globale
100%
Validazione matematica
219
Documenti testati
~30s
Per documento (GPU)
OCR tradizionale — stessi documenti
70-85%

Accuratezza stimata su documenti con layout misti, scansioni da smartphone, DDT macchiati e fatture non standard. Il tasso di errore sale drasticamente su documenti "imperfetti".

DataUnchain VLM — stessi documenti
95.5%

Accuratezza certificata su tutti i 219 documenti reali, inclusi scansioni da smartphone, layout non standard, tabelle complesse e documenti multilingua. Con auto-learning, punta al 99%+.

⚠️ Dove l'OCR Fallisce

5 scenari reali, 5 fallimenti OCR

📄

Fattura con layout non standard

Un nuovo fornitore invia una fattura con un layout diverso da tutti quelli precedenti. L'OCR non ha un template: non sa dove cercare i campi. Risultato: estrazione nulla o con errori gravi.

OCR: ✗ Serve template manuale
VLM: ✓ Estrae tutto al primo tentativo
📦

DDT macchiato o piegato

Un DDT dal magazzino con macchie d'olio, pieghe, timbri sovrapposti al testo. L'OCR riconosce caratteri corrotti. Il VLM "vede" il documento come un umano e ricostruisce le informazioni dal contesto.

OCR: ✗ Caratteri illeggibili, dati corrotti
VLM: ✓ Ricostruzione semantica dal contesto
📊

Tabelle con righe unite

Una fattura con tabella complessa: righe che si estendono su due linee, colonne unite, subtotali intermedi. L'OCR perde la struttura tabulare. Il VLM comprende le relazioni tra celle.

OCR: ✗ Struttura tabella persa
VLM: ✓ Tabella estratta correttamente
🌍

Documenti multilingua

Una fattura da un fornitore estero: intestazione in tedesco, righe in italiano, totali in formato europeo. L'OCR ha bisogno di una configurazione lingua specifica. Il VLM comprende qualsiasi lingua.

OCR: ✗ Richiede configurazione per lingua
VLM: ✓ Multilingua nativo
📱

Foto da smartphone

Un operatore fotografa una ricevuta dal telefono: angolazione non perfetta, ombre, sfocatura parziale. L'OCR non riesce a segmentare il testo. Il VLM interpreta l'immagine con la stessa capacità di un occhio umano.

OCR: ✗ Deskew insufficiente, errori multipli
VLM: ✓ Estrazione corretta anche da foto angolate
🏆

Il risultato finale

In tutti e 5 gli scenari, il VLM supera l'OCR. Non perché sia un OCR migliore — ma perché è una tecnologia fondamentalmente diversa. Comprende, non riconosce.

⚙️ Come Funziona in DataUnchain

Il VLM nel cuore della pipeline

📄

1. Il documento arriva

Via email, PEC, Telegram, API REST o cartella condivisa. 5 canali di ingresso, tutti monitorati automaticamente.

👁️

2. Il VLM proprietario lo analizza

Il nostro modello Vision AI proprietario "vede" il documento, comprende layout e contenuto, estrae tutti i campi richiesti in un JSON strutturato. Gira 100% in locale tramite Ollama — nessun dato va al cloud.

🧮

3. Validazione scientifica

Python verifica ogni campo: imponibile + IVA = totale, P.IVA valida (11 cifre), codice fiscale (omocodia-aware), formati data. I campi a bassa confidenza vengono segnalati per revisione umana.

🔌

4. Push automatico al gestionale

I dati validati vengono inviati al tuo ERP tramite uno dei 18 connettori nativi: Fatture in Cloud, TeamSystem, Zucchetti, Mexal, Odoo, SAP, Salesforce, HubSpot, e altri. Nessuna configurazione lato cliente.

Tutto in locale. Tutto automatico.

Nessun dato lascia la tua rete. Nessuna API cloud. Nessun costo per pagina. Nessun template da mantenere. Il VLM è la differenza tra un software che riconosce caratteri e uno che comprende documenti.

Domande Frequenti

VLM vs OCR — Dubbi comuni

Il VLM è più lento dell'OCR?
Su singola pagina, l'OCR puro è più veloce (~1-2 secondi vs ~30 secondi del VLM su GPU). Ma l'OCR richiede poi il template matching, la validazione e spesso la correzione manuale degli errori. Il tempo totale end-to-end — dall'arrivo del documento al dato corretto nel gestionale — è comparabile o inferiore con il VLM, perché non c'è correzione manuale da fare.
Serve una GPU dedicata?
Per la massima velocità (~30 secondi/documento) sì, serve una GPU NVIDIA con almeno 16GB di VRAM. Ma DataUnchain funziona anche in modalità CPU: più lento (~3-5 minuti/documento) ma perfettamente funzionante per volumi bassi. Con i bundle DataUnchain l'hardware è incluso e preconfigurato.
Posso usare l'OCR come fallback?
Nella roadmap di DataUnchain v3.0 è previsto un OCR ibrido come fallback per documenti a bassissima risoluzione dove il VLM non riesce a leggere il testo. Nella pratica, con il 95.5% di accuratezza del VLM, il fallback OCR è necessario in meno del 2% dei casi.
E se il VLM sbaglia?
DataUnchain ha un sistema di validazione a più livelli: check matematico (Imponibile + IVA = Totale), validazione formati (P.IVA, CF, date), e confidence score per ogni campo. I documenti con campi a bassa confidenza vengono inviati alla dashboard per revisione umana. L'operatore corregge, e la correzione alimenta il sistema di auto-learning — rendendo il modello più preciso nel tempo.
Quanto costa rispetto a un servizio OCR cloud?
I servizi OCR cloud (AWS Textract, Azure Form Recognizer) addebitano per pagina: €0.01-€0.10/pagina. Per una PMI con 5.000 pagine/mese = €600-€6.000/anno solo di elaborazione, più i costi dei template. DataUnchain ha una licenza flat annuale (da €1.200) senza costi per pagina. Al volume di 5.000 pagine/mese, il breakeven è al mese 2-3. Dopo è tutto risparmio — per sempre.

Pronto a superare l'OCR?

Scopri cosa può fare il nostro VLM proprietario con i tuoi documenti. Richiedi una demo o entra nel programma Early Adopter per provarlo gratuitamente per 6 mesi.