Sconto crediti fiscali

Finanziamenti e contributi

 

AI e valore dei dati: verso una visione basata su qualità, rilevanza e sostenibilità


Indipendentemente dal settore o dall’area geografica, oggi tutte le aziende sono alla ricerca del proprio caso d’uso relative all’intelligenza artificiale: il modo più efficace per implementare l’AI e ottenere vantaggi competitivi o migliorarne l’efficienza operativa.

Finanziamenti personali e aziendali

Prestiti immediati

 

Sebbene l’obiettivo di ciascun progetto possa variare, un elemento resta costante: la dipendenza dai dati. Il noto detto “rubbish in, rubbish out” – ovvero, se i dati in ingresso sono scadenti, lo saranno anche i risultati – acquista un nuovo significato in ambito AI, dove la qualità dell’output dipende interamente dalla qualità dei dati con cui il modello viene addestrato e continuamente alimentato.

Fino a poco tempo fa, l’approccio prevalente era semplice: più dati si acquisivano per alimentare i modelli di intelligenza artificiale, meglio era. Ma ora che i dataset hanno raggiunto dimensioni nell’ordine dei trilioni, potremmo trovarci di fronte a un punto di svolta.

Quando si confrontano, ad esempio, 15 trilioni con 5 trilioni di dati, la quantità tende a perdere importanza rispetto alla qualità delle informazioni disponibili e a come vengono utilizzate.

Alla luce di ciò, è forse giunto il momento di ripensare il nostro modo di approcciare i dati nell’ambito dell’AI?

L’ascesa dei flussi di lavoro agentici e degli SLM

Dopo diversi anni in cui i modelli linguistici di grandi dimensioni (LLM: Large Language Models) erano la principale attività di intelligenza artificiale, una delle tendenze chiave del settore a cui stiamo assistendo è il passaggio all’utilizzo di flussi di lavoro agentici e modelli linguistici di piccole dimensioni (SLM: Small Language Models).

Trasforma il tuo sogno in realtà

partecipa alle aste immobiliari.

 

A differenza delle loro controparti LLM multifunzionali, gli SLM possono essere addestrati su set di dati più mirati, il che li rende altamente efficaci per attività o domini specifici.

In parte, questo cambiamento arriva riconoscendo i problemi di costo e latenza inerenti agli LLM, nonché le implicazioni per la sicurezza. Con un chatbot LLM, ad esempio, le persone si aspettano di ricevere una risposta alla loro domanda in pochi secondi.

Se si considera, tuttavia, che per farlo è necessario che l’intera risorsa hardware di un LLM venga impiegata sulla domanda, si può capire come l’abbinamento di 11.000 log al secondo con una latenza di pochi secondi possa rivelarsi un’impresa ardua.

Invece, l’ultima idea è che se si desidera utilizzare l’intelligenza artificiale in produzione, sono necessari modelli più piccoli, sia pronti all’uso che ottimizzati.

L’ascesa degli SLM riflette anche un approccio più mirato da parte delle aziende alle query di intelligenza artificiale, in cui invece di iniziare con una domanda e raccogliere tutto ciò che potrebbe essere legato ad essa, si considera la risposta di cui si ha bisogno e quindi si forma un flusso di lavoro per riportare solo i dati necessari in ordine di utilità.

Un focus sulla profondità dei dati

Questo spostamento strategico verso l’acquisizione mirata dei dati ci porta naturalmente a riconsiderare l’argomento della qualità rispetto alla quantità in relazione ai dati. In effetti, non tutti i dati sono uguali. Il loro valore non deriva dal volume, ma da una combinazione della loro profondità e rilevanza, oltre al modo in cui li si condiziona.

I dati macchina, come i log, sono un esempio classico di come l’eccesso di volume possa essere nemico della qualità. Un file di log è solitamente una raccolta di messaggi di debug non strutturati, creati da ingegneri che nel frattempo hanno cambiato ruolo o azienda.

Di conseguenza, questi dati risultano molto dispersivi e poveri di informazioni rilevanti. In altre parole, la maggior parte del contenuto èsuperfluo, ma in quel caos si nasconde l’oro dell’AI: informazioni strategiche pronte per essere estratte.

Finanziamenti personali e aziendali

Prestiti immediati

 

È evidente che “sprecare risorse” su questi dati superflui non è una buona scelta; perciò, un passaggio preliminare che “densifichi” i log, eliminando il contenuto ridondante, rappresenta una strategia decisamente più efficace.

Naturalmente, lo scenario ideale sarebbe disporre di un ampio volume di dati di qualità. Tuttavia, anche in questo caso, è importante evitare di sovra-addestrare i modelli su un campione troppo vasto, poiché ciò potrebbe rivelarsi controproducente, generando fenomeni di overfitting.

Questo fenomeno, che descrive l’effetto negativo di voler collegare troppi dati, può portare a risultati dell’intelligenza artificiale meno accurati e più casuali.

Tale problematica è ben conosciuta a tutti i data scientist ed è nota come il compromesso bias-varianza: un affinamento eccessivo del modello sui dati di addestramento può infatti provocare una “scossa” nel riconoscimento di dati nuovi e inediti.

Quando si parla di fonti informative, è chiaro che stiamo andando verso un eccesso di dati da gestire. Per avere un’idea, la mia ipotesi è che nel giro di pochi anni il volume totale di traffico dati sulle reti supererà l’intera produzione di dati accumulata sul pianeta Terra fino a oggi.

Effetti collaterali sulla sostenibilità di una propensione alla qualità

Come molti dei principali esperti di oggi sottolineano, la tecnologia si configura come un’economia estrattiva. Spesso tendiamo a pensare alla tecnologia come a qualcosa di pulito e capace di creare valore aggiunto – come se muovesse elementi immateriali e producesse risultati “magici”.

La realtà è tutt’altro che ‘magica’: l’intelligenza artificiale consuma enormi risorse naturali – dall’energia all’acqua – lasciando un’impronta ambientale che non possiamo ignorare. In particolare, l’intelligenza artificiale è estremamente “affamata” di dati (e di potenza di calcolo), richiedendo enormi quantità di energia e acqua per raccogliere, processare, addestrare e conservare i dati che alimentano i suoi modelli.

Contributi e agevolazioni

per le imprese

 

Per dare un’idea di cosa significhi solo in termini di storage: mantenere un terabyte di dati nel cloud per un anno genera un’impronta di carbonio maggiore rispetto a un singolo volo da Schiphol a New York. E un terabyte è davvero poco.

Per questo motivo, ogni azione che permetta di riciclare i dati o di estrarne maggior valore durante il processo di intelligenza artificiale ha importanti implicazioni dal punto di vista della sostenibilità.

Tornando al confronto tra qualità e quantità, una parte del processo di “densificazione” dei log trasforma i dati da uno stato “statico” a uno “dinamico”: si estraggono i metadati e si scarta il resto, consentendo così di eliminare i dati una volta utilizzati, invece di doverli conservare.

Oltre agli aspetti legati all’archiviazione, questa significativa riduzione dei dati contribuirà anche a diminuire la latenza, permettendo al sistema di gestire decine di migliaia di log al secondo e di fornire risposte generative in 3-4 secondi.

Inoltre, si collega alla sfida crescente della sovranità dei dati: con sempre più aziende preoccupate per lo spostamento e la conservazione dei dati al di fuori del proprio Paese, meno dati vengono utilizzati e conservati, minore sarà il rischio associato a questa problematica.

In questo contesto, la classificazione dei dati – ovvero il processo di identificazione e categorizzazione delle informazioni sensibili secondo criteri predefiniti – svolge un ruolo fondamentale nell’aiutare le organizzazioni a evitare di inviare agli strumenti di intelligenza artificiale una quantità eccessiva di dati, o peggio ancora, dati errati.

 

Mutuo casa veloce

Mutuo fino al 100%

 

Inoltre, consente naturalmente di avere una chiara visione del tipo di dati a disposizione fin dall’inizio.

I dati AI gestiti diversamente

In un’economia AI sempre più competitiva, vinceranno le aziende capaci di trasformare pochi dati ben scelti in un vantaggio concreto e misurabile: estrarre il massimo valore dal minimo dato necessario.

Questo approccio offre una combinazione vincente di vantaggi: tempi di risposta più rapidi, riduzione dei costi operativi, maggiore sostenibilità, rafforzamento della sovranità dei dati e un miglior livello di sicurezza.

Abbracciando la filosofia del “dati AI gestiti diversamente”, le organizzazioni non solo ottimizzano il presente, ma plasmano il futuro dell’innovazione.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

 

Mutuo casa veloce

Mutuo fino al 100%

 

Source link

Mutuo 100% per acquisto in asta

assistenza e consulenza per acquisto immobili in asta