Chiude questa edizione del DocFinance DAY 2026 Matteo Flora, esperto in Digital Reputation e Computer Forensics, il cui contributo si è aperto da una presa di posizione chiara: formare leader etici è ciò che crea vera resilienza alle storture dell’intelligenza artificiale, che dominerà sempre più gli aspetti tecnici. Abbiamo messo a fuoco i nodi più concreti dell’adozione dell’IA generativa in azienda:
- Quali rischi reali comporta?
- Dove si colloca il confine tra uso legittimo e violazioni di copyright, privacy e sicurezza?
- E come cambia il lavoro umano quando porzioni sempre più ampie di analisi e decisione vengono delegate alla macchina?
Uno dei primi temi affrontati è stato quello del copyright e della cosiddetta “copiatura inconsapevole”. I modelli vengono addestrati su enormi quantità di contenuti – testi, immagini e video. Sebbene siano progettati per non riprodurre opere originali, in alcuni casi rigenerano porzioni molto simili alle fonti di partenza. Questo espone le organizzazioni a un doppio rischio: il contenzioso legale e la pubblicazione di materiali che violano diritti d’autore senza che nessuno se ne accorga.
Strettamente connesso è il tema della privacy e del diritto all’oblio. I modelli generalisti non sono in grado di “dimenticare selettivamente”: se un dato personale è entrato nel training, oggi non esiste un metodo affidabile per rimuoverlo solo per una persona specifica. Questo limite strutturale entra in collisione con il quadro normativo europeo, che tutela il diritto alla cancellazione dei dati.


