BeBankers

precisione i tempi di chiusura delle cause e delle chiusure transattive, permettendo così una pianificazione più efficace delle risorse e una gestione ottimizzata dei carichi di la- voro, adottando strategie mirate per ridurre i tempi di chiusura emigliorando l’efficienza operativa. Un altro caso significativo riguarda l’anali- si delle diverse modalità di comunicazione con le controparti per cercare di transigere le posizioni prima di arrivare a una sentenza. Lo studio ha avviato un progetto di analisi sperimentale ben strutturato, selezionando un campione rappresentativo di 2000 contro- parti e dividendole in due gruppi. A ciascun gruppo è stata inviata una comunicazione simile, ma con differenze in alcuni elementi chiave, come il tono, la struttura del messag- gio e la “ call to action ”, ovvero le modalità di risposta offerte. L’obiettivo era identificare quale tipo di comunicazione fosse più effi- cace nel generare risposte dalle contropar- ti. I risultati hanno mostrato che una delle due alternative ha avuto un tasso di risposta nettamente più alto, ed è quindi diventato il nuovo standard che ha aumentato l’efficien- za operativa. Per concludere, è vero che, oggi, l’intelligenza artificiale è un tema centrale e tutte le aziende temono di perdere l’opportunità di adottarla per restare competitive (la cosiddetta FOMO – fear of missing out ). Tuttavia, è importante comprendere che l’adozione efficace dell’AI richiede una preventiva solida base di dati ac- curati e ben organizzati. È, quindi, essenziale che le aziende investano prioritariamente in politiche di gestione dei dati e creino gruppi interdisciplinari capaci di estrarre e analiz- zare informazioni preziose. Solo in questo modo potranno prepararsi adeguatamente per l’integrazione delle ultime tecnologie e mantenersi competitive sul mercato. Nella cassetta degli attrezzi T F - I D F E T R I G R AM MAT C H I N G Questi algoritmi informatici sono particolarmente utili per l’analisi e il confronto di testi. TF -IDF ( Term Frequency-Inverse Document Frequency) È una tecnica che misura l’importanza di una parola all’interno di un documento rispetto aun insieme di documenti. L’algoritmo calcola quanto spesso una parola appare in un singolo documento ( Term Frequency ) e ne riduce il peso in base a quante volte la stessa parola appare in altri documenti dell’insieme ( Inverse Document Frequency ). Questo permette di individuare le parole chiave più rilevanti e di valutare la similarità tra documenti sulla base delle parole significative che condividono. Trigram Matching È una tecnica di analisi testuale che divide un testo in sequenze di tre caratteri consecutivi (trigrammi). È particolarmente utile per rilevare somiglianze tra testi anche in presenza di errori di battitura o variazioni minori. Questa tecnica viene utilizzata dai correttori ortografici ma anche nella classificazione automatica e per il confronto di testi. MO D E L L O C OX Il modello di Cox, è uno strumento statistico utilizzato per l’analisi dei dati di sopravvivenza, ovvero per studiare il tempo che intercorre fino al verificarsi di un evento specifico (come la chiusura di una causa legale, il fallimento di un’azienda o la risoluzione transattiva di una controversia). Questo modello permette di stimare l’effetto di diverse variabili indi- pendenti (covariate) sul tempo di sopravvivenza. Si basa sul concetto di “rischio” o “ hazard rate ”, che rappresenta la probabilità che l’evento d’interesse si verifichi in un determinato intervallo di tempo. Il modello di Cox è particolarmente utile perché permette di identificare quali fattori influenzano significativamente il tempo fino al verificarsi di un evento. Per esempio, in un contesto legale, può aiutare a prevedere la durata di una causa giudiziaria sulla base di variabili come il foro di competenza, il numero di parti coinvolte, la tipologia di controversia e altre caratteri- stiche specifiche. 94 B E | B AN K E R S

RkJQdWJsaXNoZXIy MTUzNjY=