Tag: LLM

Come funziona la tokenizzazione?

Come funziona la tokenizzazione? Dovete sapere che la tokenizzazione è folle ed è un miracolo che i modelli linguistici imparino qualcosa. Questa citazione (non mia) riassume bene come funziona la tokenizzazione, uno degli aspetti più importanti dei modelli linguistici di grandi dimensioni. Ogni interazione con un LLM inizia e termina con la tokenizzazione ed è…
Leggi tutto


2 Ottobre 2024 0
dspy header

Ottimizzare gli LLM con DSPy

DSPy è un framework progettato per ottimizzare l’uso dei Large Language Models (LLM).


28 Agosto 2024 0
function calling

Function Calling

In questo articolo approfondiremo le “Function Calling” dato che nel panorama dell’AI, gli LLM stanno rivoluzionando il modo in cui interagiamo con i dati. Tuttavia, nonostante la loro potenza, questi modelli sono vincolati da alcune limitazioni:

Conoscenza Limitata: La loro conoscenza è ferma al momento dell’addestramento.

Incapacità di Eseguire Domande su Dati Esterni: Non possono eseguire query su dati esterni.

Qui entra in gioco il function calling, un meccanismo innovativo che consente ai modelli di interagire con strumenti esterni, come API e database, per ottenere informazioni aggiornate e specifiche.


26 Agosto 2024 0
Prezzo RAG

Tutto sui RAG (Retrieval Augmented Generation)

La Retrieval Augmented Generation (RAG) è una tecnologia in costante crescita e sempre più popolare. Questa metodologia permette di ampliare la “conoscenza iniziale” degli LLM permettendogli di generare risposte, riflessioni o consigli su qualsiasi base di dati esterna che interessa a noi. In questo articolo, esploreremo in dettaglio Tutto sui RAG, come funzionano e quanto costa implementarla in azienda. Inoltre, forniremo esempi pratici di applicazione nei contesti aziendali, come il recupero dei curriculum vitae e la gestione dei documenti aziendali.


12 Agosto 2024 1
fine tuning LLM

Fine Tuning LLM

Nel mondo dell’intelligenza artificiale, l’addestramento di modelli di linguaggio su dati specifici è una pratica fondamentale per ottenere risultati personalizzati e accurati. Sentiamo spesso parlare del Fine Tuning LLM e in questo articolo, ti guiderò attraverso il processo di addestramento di un modello di linguaggio, utilizzando come esempio il modello Gemma2 da 2 miliardi di…
Leggi tutto


6 Agosto 2024 1
Long-Context LLMs

RAG o Long-Context LLMs?

In NetAI, sempre attenti agli sviluppi del settore, abbiamo analizzato questo studio scientifico e ve ne proporremo un riassunto dettagliato con alcune riflessioni.

Parleremo inoltre del confronto tra RAG e LC descritto nel paper, mettendo in luce i loro punti di forza e debolezza. Presenteremo l’ innovativo metodo ibrido chiamato SELF-ROUTE proposto da questi ricercatori, progettato per combinare i vantaggi di entrambe le tecnologie.


1 Agosto 2024 0
GraphRAG di Microsoft

GraphRAG di Microsoft

GraphRAG di Microsoft: Una Nuova Frontiera per il Recupero e la Generazione di Informazioni

Già da mesi una delle nostre sfide principali è quella di migliorare la capacità degli LLM di comprendere e generare risposte accurate e contestualmente rilevanti.

Ovviamente non ci siamo fatti scapare il fatto che Microsoft ha recentemente rilasciato un sistema innovativo chiamato GraphRAG (Graph Retrieval-Augmented Generation), che combina l’utilizzo dei grafi con la RAG per superare alcune delle limitazioni dei sistemi RAG tradizionali.


22 Luglio 2024 0

Fine-Tuning o ICL? Nuove scoperte

Fine-Tuning o ICL? Nel panorama in rapida evoluzione dell’intelligenza artificiale, i modelli di linguaggio di grandi dimensioni (LLM) stanno diventando sempre più centrali. Una delle tecniche emergenti per migliorare le prestazioni di questi modelli senza modificare i loro pesi è l’In-Context Learning (ICL). Ma è davvero sufficiente per compiti complessi come l’esecuzione delle istruzioni? Un recente studio condotto da Hao Zhao, Maksym Andriushchenko, Francesco Croce e Nicolas Flammarion esplora questa domanda in profondità.


4 Giugno 2024 0
GMAIL RAG

Usare Gmail con un RAG

Come già reso noto, da diverse settimane ci stiamo occupando di sviluppo di progetti software nell’ambito della tecnologia chiamata RAG (Retrieval-Augmented Generation) approfondendo in particolare l’utilizzo del framework open-source più in voga in questo momento: LangChain.
In questo articolo andremo a spiegare com usare Gmail con un RAG in un progetto che abbiamo chiamato MailGenie: un assistente virtuale che semplifica il modo in cui interagiamo con Gmail.


3 Giugno 2024 0
Benchmark e Performance degli LLM

Benchmark e Performance degli LLM

Stiamo puntando alla specializzazione nell’avanzata tecnologia RAG e nell’esplorazione delle nove tecnologie emergenti, immergendoci profondamente nello studio dei Large Language Models (LLM). Questa dedizione ci ha permesso di acquisire una comprensione profonda di questi strumenti rivoluzionari, fondamentale per la nostra missione di innovare nel settore dell’informatica. Per questo oggi ci addentreremo nei Benchmark e Performance…
Leggi tutto


26 Maggio 2024 0