Elly parla con i dati, ChatGPT pure!
Anche se potrebbe sorprendere, non temiamo le funzionalità simili di OpenAI: anzi siamo entusiasti di come sempre più soluzioni migliorino il dialogo con i dati.
Siamo arrivati alla puntata numero 31 della nostra newsletter ed è necessario fermarsi un momento e ringraziare chi ci segue: siete sempre di più e i feedback positivi sono tanti. Quindi davvero grazie 😊
It's like rain on your wedding day
It's a free ride when you've already paid
It's the good advice that you just didn't take
And who would've thought... it figures
Dicevamo puntata 31 e come spesso ci accade oggi non parleremo solo di Elly, ma vogliamo allargare lo sguardo sul modello omnia di OpenAI - denominato GPT-4o - con cui possiamo utilizzare ChatGPT per dialogare con dei dati caricati sulla piattaforma presenti su file CSV, Excel, PDF o JSON, oppure agganciando delle cartelle OneDrive o Google Drive che contengono questi file. Qui il link della documentazione ufficiale per farvi un’idea.
Prima di entrare nel merito vi anticipo subito che noi di Ellycode siamo entusiasti di questo annuncio.
So che può sembrare controintuitivo e che alcuni potrebbero essere addirittura spaventati dal fatto che un colosso come OpenAI metta a disposizione alcune funzionalità offerte anche da Elly, la nostra piattaforma di business intelligence, ma a differenza di tante startup nate in piena esplosione Generative AI, noi non abbiamo realizzato un wrapper delle API dei modelli di OpenAI, siamo nati nel 2020, quando di Intelligenza Artificiale Generativa ancora non si parlava.
Il valore di Elly è intrinseco nella nostra mission aziendale: aiutare le piccole aziende a diventare delle data-driven company.
Quando nel novembre 2022 il mondo ha conosciuto ChatGPT, noi venivamo da 2 anni in cui era complicato anche far capire alle persone il significato del termine linguaggio naturale.
OpenAI ha avuto il grande merito di mostrare al mondo “non tecnico” le potenzialità dell’approccio conversazionale, su cui ormai nessuno aveva più fiducia, a causa dei plateali fallimenti di Alexa, Siri, Cortana e più in generale, degli imbarazzanti risponditori automatici (detti Bot) telefonici e web messi a disposizione dalle grandi organizzazioni.
Quando abbiamo iniziato a progettare Elly ci siamo chiesti come mai le piccole aziende non usassero piattaforme di Business Intelligence, nonostante fosse chiaro che diventare una data-driven company in un mercato così competitivo fosse l’unico modo di sopravvivere.
E ci siamo dati tre risposte:
Per una piccola azienda raccogliere i dati sparsi ovunque (davvero ovunque) in un unico contenitore (chiamatelo data lake, datawarehouse, non importa) è un sfida non da poco, probabilmente la cosa più complicata da fare.
Le piattaforme di Business Intelligence sono state pensate per le aziende medio-grandi, infatti richiedono competenze tecniche molto verticale, che solo aziende con un reparto IT interno o che possono ingaggiare costosi consulenti possono permettersi.
La creazione di dashboard si basa su una preparazione preliminare del Data Model, da cui poi vengono create e pubblicate delle dashboard. Questo, oltre a richiedere uno specialista, rende il dato non direttamente accessibile a chi ne ha bisogno e, in alcuni casi il dato utilizzato non è neanche l’ultimo disponibile.
Chiunque abbia usato queste piattaforme in azienda conosce bene la brutta sensazione di dover chiedere a qualcuno ogni volta che ha bisogno di una informazione in più che non era stata inserita nella dashboard e dover aspettare. Per questo quando è nata Elly ci siamo posti l’obiettivo di risolvere questi tre problemi con la tecnologia disponibile:
Creare importatori verso i software: le piattaforme e gli ERP che le piccole aziende utilizzano, cosa che ci ha portato a creare fin da subito un framework per semplificarne la realizzazione (vedi articolo Il ruolo cruciale dei dati nell'era della digitalizzazione).
Utilizzare il linguaggio naturale: sostituire il linguaggio di interrogazione dati classico o linguaggio di programmazione per accedere al dato e crearsi in autonomia le proprie dashboard senza l’intermediazione di un tecnico.
Rendere la creazione di dashboard semplice per tutti: senza la necessità di un esperto che crei le dashboard, e fornendo un accesso diretto al dato, sempre utilizzando il linguaggio naturale.
Per realizzare i punti 2 e 3, abbiamo utilizzato modelli di intelligenza artificiale classici (diciamo così per distinguerli da quelli generativi); classificatori di intenti, sistemi di text-to-speech (da testo a parlato) e speech-to-text (da parlato a testo), ottimizzando il flusso per tenere il più possibile i costi bassi, altro punto fondamentale per realizzare uno strumento che possano usare le piccole aziende.
Quando il 30 novembre del 2022 è arrivato ChatGPT, è stato chiaro a tutti che si trattava di una rivoluzione, e provammo la stessa sensazione che abbiamo provato con l’annuncio di Data Analysis con ChatGPT: finalmente avevamo una tecnologia che poteva, davvero, democratizzare l’accesso ai dati con il linguaggio naturale.
All’inizio (e tutt’ora in realtà) c’era comunque il problema dei costi molto alti, quindi abbiamo utilizzando i modelli GPT in Elly per implementare funzionalità importanti, ma che potessero avere un basso impatto sui costi (il motore di Q&A, gli Insight e Data Explainer), mantenendo un approccio classico per le funzionalità restanti, cosa che ci ha permesso di tenere un pricing molto basso.
Si poteva già fare un po’ di analisi dati con ChatGPT prima di questo rilascio, ne ho parlato proprio al workshop di SMAU Napoli 2023, in cui ho mostrato come si potesse utilizzare questo strumento per fare l’analisi di un file CSV e, ad esempio, scrivere una mail per un riassunto del contenuto dei dati, allegando alcuni grafici generati direttamente dal modello.
Come potrete vedere dalla documentazione ufficiale, è stato fatto un grandissimo passo avanti, le demo sono spettacolari e le possibilità sono molto interessanti.
TUTTAVIA chiunque abbia provato a portare in un prodotto reale queste tecnologie, sa bene che tenere bassi i costi e garantire le funzionalità non è assolutamente facile (parliamo pur sempre di un modello statistico che può sempre allucinare). Per questo sono nati strumenti di orchestrazione di diversi modelli, proprio perché il “come” si usano queste tecnologie fa tutta la differenza del mondo.
Quindi sì! Siamo contenti del rilascio di questo strumento, perché contribuirà ancora di più a divulgare una cultura data-driven in azienda, democratizzando pratiche che fino a ieri era appannaggio esclusivo delle grandi aziende.
E no! Non siamo assolutamente spaventati dal rilascio di queste funzionalità, il nostro valore non è mai stato quello di “wrappare” le API di OpenAI, ma di fornire uno strumento che potesse risolvere tutti i problemi dell’accesso al dato per le piccole aziende, che non è semplicemente fare l’ultimo miglio con il linguaggio naturale: il famoso foglio excel che possiamo usare con ChatGPT, ad esempio, va preparato e tenuto aggiornato.
Un altro punto da non sottovalutare è che in un processo aziendale va garantita una data governance completa e, soprattutto, va garantito il trattamento del dato secondo le norme sulle privacy, come il GDPR.
In altre parole, va benissimo l’entusiasmo per strumenti del genere, ma poi la tecnologia va messa a terra, deve diventare davvero uno strumento utile e risolvere problemi reali, altrimenti resta un qualcosa fine a se stesso, che non riesce ad andare oltre l’effetto wow.
Se oggi siete a Taggia in provincia di Imperia, o vi è facile raggiungerla, saremo presenti alla TabyaConf 2024, dove faremo un talk sull’uso dell’intelligenza artificiale generativa per l’analisi dei dati aziendali e se volete possiamo mostrarvi Elly in azione 😃 Vi aspettiamo!