Elly dopo AI WEEK: nuova interfaccia, nuove interazioni, nuove possibilità
Le novità presentate in anteprima stanno arrivando sulla piattaforma. Scopri cosa cambia e come migliora l’esperienza con Elly.
Come spesso accade dopo i grandi eventi, il ritorno alla normalità è stato tutt’altro che tranquillo. L’AI WEEK 2025 ci ha caricato di un'energia straordinaria: abbiamo incontrato centinaia di persone, presentato Elly in oltre 350 demo concentrate in appena due giorni, raccolto feedback preziosi e già fissato le prime call di approfondimento.
Un vortice così entusiasmante che solo ora, fermandoci per scrivere questo nuovo numero della newsletter - il numero 83! - ci siamo resi conto di quanto velocemente sia volato il tempo.
Oltre a presentare i nostri quattro partner principali – di cui vi abbiamo parlato nei numeri precedenti – all’AI WEEK abbiamo svelato anche la nuova interfaccia di Elly, quella che internamente chiamiamo versione vNext.
Ormai è diventata una bella tradizione mostrarla in anteprima proprio durante questo evento, ma non lo facciamo solo per consuetudine: crediamo davvero nel valore del confronto diretto con chi usa quotidianamente la nostra piattaforma, prima di lanciare novità così importanti.
Inizialmente avevamo pensato di rilasciare tutto entro un mese dall'evento, ma considerando la portata delle novità abbiamo scelto un approccio diverso. Per garantirvi la transizione più fluida possibile, procederemo per step graduali.
Il primo rilascio è già avvenuto martedì scorso, perché come sapete, ogni martedì pubblichiamo una nuova versione. L'unica eccezione è la settimana della fiera, quando tutto il team è impegnato in loco e preferiamo evitare rilasci senza il consueto supporto post-deploy.
In questo numero vi raccontiamo tutte le novità. Ma prima, come sempre, un brano dalla nostra playlist su Spotify:
🎧 Can’t Hold Us – Macklemore & Ryan Lewis feat. Ray Dalton
Una canzone che ti prende subito e non ti molla più. Proprio come succede dopo un evento come la AI WEEK, quando l’adrenalina è ancora alta e la voglia di fare cose nuove spinge più forte di tutto.
La prima novità – e forse la più visibile – riguarda l’interfaccia principale di Elly. Nella versione precedente, l’interazione avveniva attraverso un pannello posizionato in basso: un piccolo callout per l’attivazione vocale o testuale, e un riquadro a scomparsa che si apriva sovrapponendosi (non sempre in modo comodo) alla dashboard.
Una soluzione coerente con l’impostazione iniziale della piattaforma, quando lo spazio era pensato per uno scrolling orizzontale. Ma da quando, su richiesta di clienti e partner, abbiamo introdotto anche lo scrolling verticale – ne avevamo parlato qui – quell’interfaccia ha iniziato a mostrarci i suoi limiti. Era arrivato il momento di cambiare.
Nella nuova versione, il callout di Elly è stato completamente riposizionato: ora vive in un cerchio discreto, nell’angolo in basso a sinistra dello schermo. Sempre ben visibile, ma senza più interferenze con la navigazione.
Quando serve, basta un clic per attivarlo e accedere alla nuova interfaccia, che consente di porre richieste – vocali o testuali – in modo molto più fluido, ordinato e immediato rispetto al passato.
Ed è proprio qui che si inserisce uno dei cambiamenti più significativi di questa nuova versione: abbiamo rimosso del tutto il sistema di riconoscimento degli intenti.
Quando Elly è nata, nel 2020, l’intelligenza artificiale generativa non era ancora disponibile – sarebbe arrivata solo due anni dopo. In quel contesto, la scelta più sensata era adottare un modello basato sugli “intenti”, lo stesso utilizzato dagli assistenti vocali dell’epoca, da Alexa a Siri, passando per Cortana.
Quel meccanismo era alla base sia del sistema di Q&A, sia della possibilità di attivare alcune funzionalità dell’interfaccia senza clic. Ma con l’arrivo dei modelli generativi, tutto è cambiato. Le domande ora vengono comprese e gestite in modo più naturale ed efficace grazie agli LLM. E anche l’attivazione vocale è diventata superflua: oggi ogni funzione è accessibile da menu contestuali, con un semplice clic.
Già da tempo avevamo notato che gli utenti preferivano questa modalità, soprattutto per le operazioni più frequenti. Così abbiamo deciso di renderla ancora più chiara e immediata, eliminando i pannelli a comparsa in favore di nuove finestre modali: più pulite, coerenti e facili da gestire.
Un’altra novità riguarda l’apertura delle collezioni, completamente ripensata. Siamo passati da una visualizzazione affiancata a una gestione a tab, in stile Excel. Una scelta nata dai tanti feedback ricevuti da clienti e partner: la modalità affiancata funzionava bene solo su schermi molto ampi, ma risultava scomoda – e a volte ingestibile – su dispositivi più compatti.
Ora ogni collezione si apre in una nuova tab, con accesso diretto alle funzioni principali: modellazione, filtri, raggruppamenti, join e unpivot. Quando l’operazione è semplice, non serve più aprire una finestra modale: una piccola box a comparsa mostra subito le opzioni più utilizzate. Se invece l’azione richiede più passaggi, si apre una modale completa con tutte le impostazioni disponibili.
Torneremo presto su ognuna di queste funzionalità: meritano tutte un approfondimento dedicato. Intanto, un dettaglio pratico ma non secondario: abbiamo spostato le informazioni di pagina dal lato destro a quello sinistro, per evitare che finiscano sotto il nuovo callout di Elly.
E veniamo alle nuove funzionalità legate all’AI generativa.
Da oggi è possibile porre domande al Q&A in due modi: aprendo il classico pannello azzurro oppure scrivendo direttamente dal callout, nella UI principale. Una novità resa possibile proprio dalla rimozione del sistema di riconoscimento degli intenti.
Ora che Elly non deve più “indovinare” se volete attivare una funzione o fare una domanda, ogni input testuale viene interpretato con chiarezza come richiesta al Q&A. Un’interazione più semplice, più diretta, senza ambiguità.
Anche le risposte del Q&A hanno fatto un passo avanti importante. Per noi non è mai stato solo uno strumento informativo, ma un vero punto di partenza per modellare i dati. Fino a oggi, ogni risposta generava automaticamente una nuova collezione, da cui partire per costruire grafici e visualizzazioni.
Ora, invece, il risultato viene mostrato direttamente all’interno della finestra del Q&A, con un’anteprima dei dati accompagnata da una spiegazione in linguaggio naturale delle operazioni eseguite. Un cambiamento che rende il processo più chiaro, più leggibile, più accessibile anche per chi non ha competenze tecniche.
A quel punto, chi utilizza Elly ha tre possibilità: visualizzare i dati con un grafico suggerito dal nostro agente AI per la data visualization, aprire una nuova collezione per lavorare sui dati ottenuti oppure – se si è già all’interno di una dashboard – aggiungere la risposta come nuova tile, con un solo clic.
Un flusso più diretto, più visivo, più integrato nell’esperienza di ogni giorno.
Chi ha visitato il nostro stand alla AI WEEK ha potuto dare un’occhiata in anteprima ad alcune funzionalità completamente nuove. Non sono ancora disponibili nella piattaforma, ma il loro debutto si avvicina – e, come sempre, ve le racconteremo con calma, quando saranno pronte per l’uso quotidiano.
Se però la curiosità è già forte, e volete vedere queste novità applicate ai vostri dati, scriveteci: saremo felici di fissare una demo gratuita e mostrarvi in anteprima su cosa stiamo lavorando.