HomeScenariAI e insight in tempo reale, i trend tecnologici del 2024

AI e insight in tempo reale, i trend tecnologici del 2024

Crescono le richieste di applicazioni di AI e di migliori insight in tempo reale da parte delle aziende. Copiloti, Large Language Model e database multimodali ed Edge AI, tra le tendenze del 2024. Fabio Gerosa di Couchbase mette in luce i principali trend tecnologici che caratterizzeranno il prossimo anno

Leggi le riviste ⇢

Ti potrebbero interessare ⇢

Nicoletta Buora

La crescita dell’AI generativa continuerà con forza anche nel 2024. Un numero maggiore di aziende integrerà applicazioni di dati in tempo reale per creare soluzioni dinamiche e adattive basate proprio sull’intelligenza artificiale.

Fabio Gerosa, di Sales Director Italy di Couchbase, fa un’analisi dei principali trend tecnologici che caratterizzeranno il prossimo anno, a partire proprio dall’affermazione dell’AI generativa nel mondo delle imprese

Dati in tempo reale: diventerà uno standard

Per questo i dati in tempo reale diventeranno lo standard per alimentare le esperienze di AI generativa e dovranno supportare analytics transazionali e in tempo reale.

Diventando fondamentale per il business, le imprese dovranno assicurarsi che i dati su cui si basano i modelli di AI siano fondati su verità e realtà, sfruttando informazioni il più possibile “fresche”.

Inoltre, le aziende sfrutteranno sempre più un livello di informazioni che supporti sia l’analisi transazionale che quella in tempo reale per prendere decisioni tempestive e rispondere istantaneamente alle dinamiche del mercato.

Rag, per risultati fondati e contestuali con l’AI e per risolvere le “allucinazioni”

La tecnica Retrieval-Augmented Generation (Rag) sarà fondamentale per ottenere risultati fondati e contestuali con l’AI.

L’entusiasmo per i modelli linguistici di grandi dimensioni e le loro capacità generative continuerà ad essere limitato dal problema delle “allucinazioni”.

Si tratta di casi in cui i modelli producono output che, pur essendo coerenti, possono essere distanti dalla realtà fattuale o dal contesto dell’input.

Con il progresso delle aziende sarà importante demistificare le allucinazioni dell’AI e implementare la tecnica emergente Retrieval-Augmented Generation, la quale, abbinata a dati contestuali in tempo reale, può ridurre queste allucinazioni, migliorando accuratezza e valore del modello.

Gestire correttamente i dati nei progetti di AI

Il paradigma dell’AI passa da model-centric a data-centric. I dati sono fondamentali nel machine learning moderno, ma devono essere affrontati e gestiti correttamente nei progetti di AI.

Poiché questa tecnologia adotta un approccio focalizzato sul modello, si sprecano centinaia di ore per mettere a punto modelli basati su dati di bassa qualità.

Con la maturazione, evoluzione e aumento dei modelli di AI, ci si impegnerà per avvicinare i modelli ai dati.

 L’AI data-centric consentirà alle aziende di fornire esperienze sia generative che predittive, basate sui dati più recenti, migliorando in modo significativo la resa dei modelli e riducendo al contempo le allucinazioni.

Spopoleranno i copiloti di AI

L’integrazione di AI e machine learning nei processi di gestione dei dati e negli strumenti di analisi continuerà a evolversi.

Con l’emergere dell’AI generativa, le aziende hanno bisogno di un metodo per interagire con l’AI e i dati che produce a livello contestuale.

Sfruttando l’aumento di informazioni e analytics, le imprese inizieranno a integrare i copiloti dell’AI – che grazie alla capacità di comprendere ed elaborare grandi quantità di dati fungono da assistenti per i modelli di AI, ordinandoli e generando best practice e raccomandazioni - nei loro prodotti per ottenere insight più rapidamente.

L’ascesa dei Llm multimodali

Llm (Large Language Model) e database multimodali abiliteranno una nuova frontiera di applicazioni AI in tutti i settori industriali

Uno dei trend più interessanti per il 2024 sarà l’ascesa dei Llm multimodali. È cresciuta l’esigenza di database multimodali in grado di archiviare, gestire e interrogare in modo efficiente diverse tipologie di dati.

Tuttavia, dimensioni e complessità degli insiemi di dati multimodali rappresentano una sfida per i database tradizionali, tipicamente progettati per archiviare e interrogare un singolo tipo di dati, come testo o immagini.

I database multimodali, invece, sono molto più versatili e potenti e rappresentano una progressione naturale nell’evoluzione dei Llm per unire i diversi aspetti di elaborazione e comprensione delle informazioni, utilizzando modalità multiple come testo, immagini, audio e video.

L’avanzata dell’Edge AI

Il successo dell’Edge AI dipenderà dal progresso nei modelli leggeri di AI. L’innovazione che caratterizza l’AI è entusiasmante e l’edge computing è un modo per abilitare nuove applicazioni. Tuttavia, per rendere l’edge AI un’opzione praticabile, i modelli devono essere leggeri e in grado di funzionare su dispositivi embedded e server edge con risorse limitate, continuando a fornire risultati con livelli di accuratezza accettabili.

Sebbene siano già stati compiuti molti progressi nella compressione dei modelli, l’innovazione in questo settore continuerà ulteriormente, e, insieme ai progressi dei processori di intelligenza artificiale per l’edge, renderà l’EdgeAI onnipresente.

Scalare l’AI con l’Edge computing

L’unico modo per scalare l’intelligenza artificiale sarà distribuirla, con l’aiuto dell’edge computing.

La convergenza di edge e cloud AI sarà il modo per fornire AI su scala, cloud ed edge, con l’offloading delle attività di calcolo, se necessario.

Per esempio, l’edge può gestire le inferenze del modello e il cloud il suo addestramento o l’edge può scaricare le query al cloud a seconda della lunghezza di una richiesta e così via.

Quando si tratta di una strategia di AI di successo, non è pratico avere un approccio esclusivamente cloud. Le aziende devono considerare una strategia di edge computing - abbinata al cloud - per consentire previsioni di AI a bassa latenza e in tempo reale, in modo economicamente vantaggioso, senza compromettere privacy e sovranità dei dati.

L’entrata in gioco dell’apprendimento federato

L’apprendimento federato sarà un elemento chiave nel futuro dell’AI, soprattutto in un mondo in cui la privacy è messa a dura prova

Sebbene sia vero che potremmo aver archiviato l’apprendimento tradizionale quando si tratta di AI, ci sono ancora molte fonti di dati non sfruttate.

Tutto ciò che facciamo sui nostri dispositivi viene sincronizzato con un server per addestrare modelli linguistici di grandi dimensioni (Llm) o mettere a punto Llm per un uso specifico.

È qui che entra in gioco l’apprendimento federato. Con la recente popolarità dell’intelligenza artificiale generativa, si è diffusa l'idea di adottare un approccio decentralizzato all’addestramento dei modelli di intelligenza artificiale, ovvero l’apprendimento federato.

AI e insight in tempo reale, i trend tecnologici del 2024 - Ultima modifica: 2023-11-13T16:28:27+01:00 da Nicoletta Buora