[Gfoss] Indagine dell'Agenzia del Territorio - Corriere della Sera

Ciao!
Qualche esperimento pratico sull'argomento in questione l'ho visto anch'io.

Intanto leggo che su 1.000.000 di particelle sospette, ce ne erano la
metà in cui gli edifici non erano accatastabili.
Ma il SW ha estratto il milione di particelle dalla massa complessiva,
di cui non ci dicono l'entità.

Infatti non si puo' stimare la capacità di individuazione in senso assoluto perche' non sappiamo l'ammontare
complessivo di unita' immobiliari e particelle.
Ma si puo' stimare l'errore compiuto, e secondo me lo stimiamo pure per difetto.

Perche' l'algoritmo estrae 1 Mil. di UI non accatastate , ma la meta' non erano da accatastare,
per cui l'errore di partenza sta sul 50%.
Ma la stime e' per difetto perche' in realta' mancano quelle "missed", ovvero quelle non in regola, ma che per le particolarita' dell'algoritmo non sono state
rilevate. Ovvero sono "scampate" alla spazzolata.

- A meno che le soglie non siano state tenute volutamente basse proprio per non far scampare nessuno, a costo di avere un sacco di falsi positivi. -

E poi se capisco bene si basano sul principo della assenza dalla carta catastale.
Per cui se io ho classificato la UI come baracca e invece era una villa, il software comunque vedeva qualcosa e quindi passava oltre ?

Insomma i dubbi sono tanti, quello che si sa' e' solo che l'errore compiuto sui rilevati e' del 50%.

Tecnicamente sarebbe interessante saperne di piu' perche' e' una indagine su larga scala e con successiva verifica sul posto,
per cui potrebbero identificare i punti deboli dell'algoritmo e introdurre dei correttivi.

Infatti se invece di restituirne 1.000.000 ne avesse restituiti chesso' 700.000 allora i falsi positivi sarebbero stati molto meno e così anche
le verifiche a perdere.

Andrea.