Quando si ha a che fare, come nel caso del recupero dei crediti, con centinaia se non migliaia di pratiche da gestire, il “fiuto negli affari” non è più sufficiente, se mai lo è stato, a trovare la strada giusta. Il miglior approccio per recuperare quei crediti nel modo più rapido ed efficiente è piuttosto il frutto di un’analisi paziente e approfondita della sterminata marea di dati contenuti in tutte quelle posizioni che pongono ogni giorno i gestori, e i consulenti che li assistono, di fronte a sfide complesse: problemi da risolvere e decisioni da prendere, siano esse relative all’amministrazione ordinaria o alla pianificazione strategica di un business plan da cui dipendono i destini di molte persone.
Tuttavia, i dati, di per sé, non hanno valore: sono solo sequenze di numeri e lettere, che diventano utili solo quando vengono trasformati in informazioni significative. Per fare ciò, è necessario definire strutture, schemi e attribuire significati e correlazioni. Questo processo rientra nella Data Science, una disciplina scientifica, che trasforma i dati grezzi in informazioni strategiche per supportare le decisioni di business. Usando un’altra terminologia, possiamo affermare che la Data Science consente di passare dal dato grezzo all’informazione, per ottenere conoscenza.
Possiamo fare un parallelo con l’assemblaggio di un mobile, come quelli di una nota catena scandinava. I dati sono rappresentati dalle viti e dalle assi nella scatola; la conoscenza è il mobile assemblato. Nel mezzo troviamo il manuale d’istruzioni (spesso complesso) e una persona abile che riesce a mettere insieme i pezzi nel modo corretto.
Per lavorare con i dati, sono necessarie competenze non comuni, che spesso mancano agli avvocati o agli operatori del settore bancario. Diventa, dunque, cruciale un approccio interdisciplinare, in cui persone con formazioni diverse lavorino insieme per affrontare le tematiche d’interesse in modo efficace ed efficiente. Questo è particolarmente vero quando la quantità di dati cresce e solo moderni strumenti tecnologici possono possederla e gestirla, rendendo indispensabile il coinvolgimento di esperti informatici capaci di sviluppare soluzioni su misura.
Un esempio recente riguarda la gestione delle PEC (Posta Elettronica Certificata) in uno studio legale di banking litigation, ove queste costituiscono una preziosa fonte di dati (oltre 10.000 al mese), ma possono diventare un incubo per la segreteria, che deve gestirle manualmente. Per migliorare questo processo, è stato implementato un sistema automatico di smistamento, chiamato JAPB (Judicial Automatic PEC Balancer), capace di estrarre dal corpo dell’e-mail i riferimenti giudiziari e, attraverso tecniche come TF-IDF e Trigram Matching, individuare l’avvocato responsabile della pratica specifica e inoltrare l’e-mail, riducendo così il carico di lavoro sulla segreteria. Oltre a semplificare la gestione operativa, lo studio ha potuto ottenere informazioni preziose per migliorare l’efficienza interna. Per esempio, è stato possibile ridistribuire in modo più equilibrato il carico di lavoro tra i legali, identificando le pratiche più attive e quelle meno impegnative.
Una volta organizzati e gestiti tutti i dati delle pratiche, è stato possibile effettuare anche ulteriori analisi, come quella sulla sopravvivenza delle stesse, utilizzando il modello di Cox. Inserendo diverse covariate nel modello (foro di competenza, numero di parti coinvolte, specifiche delle controparti, ecc.), lo studio è stato in grado di stimare con maggiore precisione i tempi di chiusura delle cause e delle chiusure transattive, permettendo così una pianificazione più efficace delle risorse e una gestione ottimizzata dei carichi di lavoro, adottando strategie mirate per ridurre i tempi di chiusura e migliorando l’efficienza operativa.
Un altro caso significativo riguarda l’analisi delle diverse modalità di comunicazione con le controparti per cercare di transigere le posizioni prima di arrivare a una sentenza. Lo studio ha avviato un progetto di analisi sperimentale ben strutturato, selezionando un campione rappresentativo di 2000 controparti e dividendole in due gruppi. A ciascun gruppo è stata inviata una comunicazione simile, ma con differenze in alcuni elementi chiave, come il tono, la struttura del messaggio e la “call to action”, ovvero le modalità di risposta offerte. L’obiettivo era identificare quale tipo di comunicazione fosse più efficace nel generare risposte dalle controparti. I risultati hanno mostrato che una delle due alternative ha avuto un tasso di risposta nettamente più alto, ed è quindi diventato il nuovo standard che ha aumentato l’efficienza operativa.
Per concludere, è vero che, oggi, l’intelligenza artificiale è un tema centrale e tutte le aziende temono di perdere l’opportunità di adottarla per restare competitive (la cosiddetta FOMO – fear of missing out). Tuttavia, è importante comprendere che l’adozione efficace dell’AI richiede una preventiva solida base di dati accurati e ben organizzati. È, quindi, essenziale che le aziende investano prioritariamente in politiche di gestione dei dati e creino gruppi interdisciplinari capaci di estrarre e analizzare informazioni preziose. Solo in questo modo potranno prepararsi adeguatamente per l’integrazione delle ultime tecnologie e mantenersi competitive sul mercato.
NELLA CASSETTA DEGLI ATTREZZI
TF – IDF E TRIGRAM MATCHING
Questi algoritmi informatici sono particolarmente utili per l’analisi e il confronto di testi.
TF -IDF (Term Frequency-Inverse Document Frequency)
È una tecnica che misura l’importanza di una parola all’interno di un documento rispetto a un insieme di documenti. L’algoritmo calcola quanto spesso una parola appare in un singolo documento (Term Frequency) e ne riduce il peso in base a quante volte la stessa parola appare in altri documenti dell’insieme (Inverse Document Frequency). Questo permette di individuare le parole chiave più rilevanti e di valutare la similarità tra documenti sulla base delle parole significative che condividono.
Trigram Matching
È una tecnica di analisi testuale che divide un testo in sequenze di tre caratteri consecutivi (trigrammi). È particolarmente utile per rilevare somiglianze tra testi anche in presenza di errori di battitura o variazioni minori. Questa tecnica viene utilizzata dai correttori ortografici ma anche nella classificazione automatica e per il confronto di testi.
MODELLO COX
Il modello di Cox, è uno strumento statistico utilizzato per l’analisi dei dati di sopravvivenza, ovvero per studiare il tempo che intercorre fino al verificarsi di un evento specifico (come la chiusura di una causa legale, il fallimento di un’azienda o la risoluzione transattiva di una controversia).
Questo modello permette di stimare l’effetto di diverse variabili indi¬pendenti (covariate) sul tempo di sopravvivenza. Si basa sul concetto di “rischio” o “hazard rate”, che rappresenta la probabilità che l’evento d’interesse si verifichi in un determinato intervallo di tempo. Il modello di Cox è particolarmente utile perché permette di identificare quali fattori influenzano significativamente il tempo fino al verificarsi di un evento. Per esempio, in un contesto legale, può aiutare a prevedere la durata di una causa giudiziaria sulla base di variabili come il foro di competenza, il numero di parti coinvolte, la tipologia di controversia e altre caratteri¬stiche specifiche.