Fare nel settore della finanza quello che ChatGPT è stato in grado di portare nel mondo dei chatbot generalisti. Lo hanno presentato così i maggiori giornali anglosassoni alla sua presentazione. Si chiama BloombergGPT e, come dice il suo nome, è stato sviluppato ed è di proprietà di uno dei maggiori gruppi di informazione finanziaria ed economica del mondo. Trattandosi di una tecnologia proprietaria, nonostante sia stato presentato anche da un pre-print disponibile su arXiv.org, per accedere al servizio, ovviamente, bisogna sottoscrivere un abbonamento con Bloomberg.
Come il più noto ChatGPT, BloombergGPT appartiene a una tipologia di modelli di algoritmi basati su intelligenza artificiale e machine learning che vanno sotto il nome di Large Language Models (LLMs), cioè modelli basati sul linguaggio naturale (in ChatGPT, per esempio, si interagisce come se stessimo chattando con un’altra persona) che si basano su enormi quantità di parametri, misurabili in miliardi. Nel caso di BloombergGPT i parametri sono 50 miliardi e si tratta di un modello progettato e realizzato da zero espressamente per il mondo della finanza. Il funzionamento è simile a quello di ChatGpt sviluppato da OpenAI: si tratta di una chat che permette di dialogare attraverso il linguaggio naturale sui temi legati alla finanza e all’economia. Secondo i suoi sviluppatori, BloombergGPT dovrebbe servire da assistente agli investitori e avrebbe prestazioni migliori di altri bot simili disponibili nel mondo open. Trattandosi, però, di un bot proprietario di cui non è possibile accedere al codice, si tratta di una informazione da prendere con cautela: quale fornitore di servizi direbbe che il proprio prodotto non è buono?
Vent’anni di finanza e intelligenza artificiale
Quale sarà la fortuna di BloombergGPT rimarrà da vedere. Ma il rapporto della finanza con il mondo dell’informatica e in particolare con l’intelligenza artificiale è tutt’altro che recente. In un contesto in cui un prodotto nuovo, come un bot, può costare molto in termini di sviluppo, proprio gli investitori degli hedge-fund, ovvero quella parte più ricca e propensa al rischio del mondo finanziario, sono sempre stati degli early-adopter. La prima ondata di investimenti risale alla fine degli anni Novanta e l’inizio del nuovo secolo, quando compaiono i primi quants (“quantitative investors”, letteralmente: investitori quantitativi): utilizzano algoritmi per individuare i titoli su cui piazzare scommesse a breve termine. Quello che dovevano fare gli algoritmi era, il più velocemente possibile, prevedere se il valore di un certo titolo sarebbe cresciuto o calato. Secondo il racconto dell’Economist, la società Two Sigma di New York ha iniziato a utilizzare queste tecniche fin dal 2001.
Nel giro di una decina d’anni, all’utilizzo di algoritmi che macinano grandi quantità di dati si passa al vero e proprio impiego del machine learning. I primi a farlo sono gli investitori di Man Group, una società britannica, che nel 2014 lancia il primo fondo basato sul machine learning. Altro pioniere del settore è Capital Management, negli Stati Uniti, che si apre alle nuove tecnologie nello stesso periodo. Da allora, il mondo della finanza è stato completamente ribaltato, anche se raramente se ne è avuta notizia nei media generalisti.
Dal 2019, come racconta ancora l’Economist, dimostrata l’efficacia dell’uso degli algoritmi per decidere dove investire, l’intelligenza artificiale ha iniziato a occuparsi anche dell’altra metà delle transazioni, ovvero la vendita. Il risultato è un settore del trading finanziario che vive a una velocità al di là delle capacità umane di reagire in cui più spesso che no, a “parlarsi” sono due algoritmi. I guadagni per le società si stanno dimostrando enormi, con ritorni decennali nell’ordine del 40-60% del capitale investito. Con questi risultati, è chiaro che machine learning e LLMs sono entrati nella finanza per restare a lungo.
Preoccupazioni
La novità del settore, oltre che la velocità di sviluppo delle novità tecnologiche, ha però già prodotto una serie di preoccupazioni che devono essere prese in esame dalle istituzioni che si occupano di regolamentare e supervisionare i mercati. Un recente report dell’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) ha individuato una serie di punti sui quali c’è la necessità di concentrarsi. Innanzitutto, c’è la questione dei dati, necessari in enormi quantità per allenare i modelli di IA: c’è grande preoccupazione per la qualità dei dati impiegati, per la loro adeguatezza rispetto agli scopi e i connessi problemi di privacy. L’attenzione in questo ambito dovrebbe servire inoltre a evitare le discriminazioni e i bias, come per esempio avviene in casi documentati in cui gli algoritmi introducono un elemento razziale nelle elaborazioni delle concessioni dei mutui bancari in cui chi non è bianco viene sfavorito.
Inoltre, le tecniche di intelligenza artificiale in finanza, sempre secondo l’OCSE, potrebbero esacerbare alcune pratiche illegali nel commercio volte alla manipolazione dei mercati. La complessità dei sistemi e la velocità alla quale operano rischiano inoltre di rendere più difficile per chi supervisiona identificare pratiche scorrette. Addirittura, nel caso di trading completamente lasciato ai modelli c’è la possibilità che riescano a imparare come aggirare i sistemi di sorveglianza stessi, rendendo ancora più difficile che qualcuno se ne accorga, forse nemmeno i proprietari degli algoritmi.
Infine, c’è un aspetto più generale che preoccupa i regolatori dei mercati. Normalmente, i profitti nel settore finanziario vengono ritenuti legittimi se gli investitori rispettano le regole ma anche se, inoltre, sono in grado di spiegare le performance dei propri fondi di investimento. Nel caso degli algoritmi questo non è possibile. La capacità di dare spiegazioni è ritenuta anche un garanzia per gli investitori, in questo caso per i clienti dei fondi di investimento che mettono il proprio denaro in mano ai broker. L’opacità dei modelli, o meglio di come ottengono i risultati, è quindi un elemento deteriore per chi investe.
Questi, e altri fattori, potrebbero anche mettere in difficoltà l’approccio technologically-neutral di molte giurisdizioni nel mondo. I modelli basati su IA utilizzati in finanza, cioè, mettono in discussione l’idea che la tecnologia non sia né buona né cattiva, ma sia l’impiego che se ne fa a determinare in quale campo ricadano le sue applicazioni. L’opacità e la complessità dei LLM potrebbe spingere in un futuro non troppo lontano a rivedere questa posizione.
L’aspetto dell’opacità è al centro anche di un di un recente paper pubblicato dalla rivista del Fondo Monetario Internazionale:
“la natura sempre in evoluzione della tecnologia [Artificial Intelligence/Machine Learning] e delle sue applicazioni in finanza significa che attualmente né gli utenti, i fornitori e gli sviluppatori di tecnologia, né le autorità di regolamentazione comprendono per intero portata dei punti di forza e di debolezza della tecnologia”.
L’approccio, quindi, dovrebbe essere quello di un rafforzamento delle operazioni di supervisione e monitoraggio, perché, continuano gli autori dello stesso paper, “potrebbero esserci molte insidie inaspettate che devono ancora concretizzarsi”.