Che cos'è un algoritmo di machine learning?
Inizia la prova gratuita di watsonx.ai
Una rete neurale

Un algoritmo di machine learning è un insieme di regole o processi utilizzati da un sistema di AI per svolgere attività: il più delle volte per scoprire nuovi insight e modelli di dati o per prevedere valori di output da un determinato insieme di variabili di input. Gli algoritmi consentono l'apprendimento del machine learning (ML).

Gli analisti del settore concordano sull'importanza del machine learning e degli algoritmi sottostanti. Secondo Forrester, "i progressi negli algoritmi di machine learning apportano precisione e profondità all'analisi dei dati di marketing che aiutano gli esperti a capire in che modo i dettagli di marketing (come la piattaforma, la creatività, l'invito all'azione o la messaggistica) influiscono sulle prestazioni di marketing".1 Mentre Gartner afferma che "il machine learning è al centro di molte applicazioni di AI di successo, alimentandone l’enorme trazione nel mercato".2

Molto spesso, l'addestramento degli algoritmi di machine learning (ML) su più dati fornirà risposte più accurate rispetto all'addestramento su meno dati. Utilizzando metodi statistici, gli algoritmi vengono addestrati per determinare classificazioni o fare previsioni e per scoprire insight fondamentali nei progetti di data mining. Questi insight possono successivamente migliorare il processo decisionale per aumentare le metriche di crescita chiave.

I casi d'uso degli algoritmi di machine learning includono la capacità di analizzare i dati per identificare tendenze e prevedere problemi prima che si verifichino.3 Un’AI più avanzata può consentire un supporto più personalizzato, ridurre i tempi di risposta, fornire il riconoscimento vocale e migliorare la soddisfazione del cliente. I settori che traggono particolare vantaggio dagli algoritmi di machine learning per creare nuovi contenuti da grandi quantità di dati includono la gestione della supply chain, i trasporti e la logistica, la vendita al dettaglio e la produzione4; tutti adottano l'AI generativa, con la sua capacità di automatizzare le attività, migliorare l'efficienza e fornire insight preziosi, anche ai principianti.

Ora disponibile: watsonx

Moltiplica la potenza dell'intelligenza artificiale per la tua azienda con la piattaforma di dati e AI di nuova generazione di IBM.

Contenuti correlati

Iscriviti alla newsletter IBM

Deep Learning

Il deep learning è un'applicazione specifica delle funzioni avanzate fornite dagli algoritmi di machine learning. La differenza è nel modo in cui ogni algoritmo apprende. I modelli di machine learning "profondo" possono sfruttare i set di dati etichettati, noti anche come apprendimento controllato, per informarne l'algoritmo, ma non richiede necessariamente dati etichettati. Il deep learning può acquisire dati non strutturati nella loro forma grezza (come testo o immagini) e può determinare automaticamente l'insieme di funzioni che distinguono le diverse categorie di dati l'una dall'altra. Ciò elimina parte dell’intervento umano richiesto e consente l’uso di set di dati più grandi.

Il modo più semplice di comprendere l'intelligenza artificiale, il machine learning, il deep learning e le reti neurali è pensarli come una serie di sistemi di AI dal più grande al più piccolo, ognuno dei quali comprende il successivo. L’intelligenza artificiale (AI) è il sistema generale. Il machine learning è un sottoinsieme dell'AI. Il deep learning è un sottocampo del machine learning e le reti neurali costituiscono la spina dorsale degli algoritmi di deep learning. È il numero di livelli di nodi, o profondità, delle reti neurali a distinguere una singola rete neurale da un algoritmo di deep learning, che deve averne più di tre.

Come funzionano gli algoritmi di machine learning

Un documento della UC Berkeley suddivide il sistema di apprendimento di un algoritmo di machine learning in tre parti principali.5

  1. Un processo decisionale: in generale, gli algoritmi del machine learning vengono utilizzati per fare una previsione o una classificazione. In base ad alcuni dati di input, che possono essere etichettati o non etichettati, l'algoritmo produrrà una stima di un modello nei dati.

  2. Una funzione di errore: una funzione di errore valuta la previsione del modello. Se ci sono esempi noti, una funzione di errore può effettuare un confronto per valutare l'accuratezza del modello.

3.    Un processo di ottimizzazione del modello: se il modello può adattarsi meglio ai punti dati nel set di addestramento, i pesi vengono regolati per ridurre la discrepanza tra l'esempio noto e la stima del modello. L'algoritmo ripeterà questo processo di "valutazione e ottimizzazione", aggiornando autonomamente i pesi fino al raggiungimento di una soglia di accuratezza.  

L'apprendimento supervisionato, in particolare, utilizza un set di addestramento per insegnare ai modelli   a produrre il risultato desiderato. Questo set di dati di addestramento include input e output corretti, che consentono al modello di apprendere nel tempo. L'algoritmo misura la sua precisione attraverso la funzione di perdita, regolandosi fino a quando l'errore non è stato sufficientemente ridotto.

Tipi di algoritmi di machine learning

Esistono quattro tipi di algoritmi di machine learning: supervisionati, non supervisionati, semi-supervisionati e di rinforzo.  A seconda del budget, della velocità e della precisione richieste, ogni tipo e variante presenta i propri vantaggi. Gli algoritmi avanzati di machine learning richiedono più tecnologie, tra cui il deep learning, le reti neurali e l'elaborazione del linguaggio naturale, e sono in grado di utilizzare sia l'apprendimento non supervisionato che quello supervisionato.6 Di seguito sono riportati gli algoritmi più diffusi e comunemente usati.

Algoritmi di apprendimento supervisionati

L'apprendimento supervisionato può essere suddiviso in due tipi di problemi durante il data mining: classificazione e regressione.

  • La classificazione utilizza un algoritmo per assegnare con precisione i dati dei test in categorie specifiche. Riconosce entità specifiche all'interno del set di dati e tenta di trarre alcune conclusioni su come tali entità devono essere etichettate o definite. Gli algoritmi di classificazione comuni sono classificatori lineari, macchine a vettori di supporto (SVM), alberi decisionali, K-nearest neighbor e foresta casuale, descritti in dettaglio di seguito.
  • La regressione viene utilizzata per comprendere la relazione tra variabili dipendenti e indipendenti. Viene comunemente utilizzata per elaborare proiezioni, ad esempio i ricavi delle vendite per una determinata azienda. La regressione lineare, la regressione logistica e la regressione polinomiale sono algoritmi di regressione diffusi.

Vari algoritmi e tecniche di calcolo sono utilizzati nei processi di machine learning supervisionato, spesso calcolati attraverso l'uso di programmi come Python. Gli algoritmi di apprendimento supervisionati includono:

  • AdaBoost o gradient boosting: chiamato anche adaptive boosting7, questa tecnica potenzia un algoritmo di regressione poco performante combinandolo con alcuni più deboli per creare un algoritmo più potente che produca meno errori. Il boosting combina il potere di previsione di diversi stimatori di base.
  • Reti neurali artificiali: note anche come ANN, reti neurali o reti neurali simulate (SNN), sono un sottoinsieme di tecniche di machine learning e sono al centro degli algoritmi di deep learning. L’algoritmo di apprendimento riconosce modelli nei dati di input utilizzando elementi costitutivi chiamati neuroni, simili ai neuroni del cervello umano, che vengono addestrati e modificati nel tempo. (Maggiori informazioni in "reti neurali".)
  • Algoritmi dell'albero decisionale: utilizzati sia per prevedere valori numerici (problemi di regressione) che per classificare i dati in categorie, gli alberi decisionali utilizzano una sequenza di ramificazione di decisioni collegate che possono essere rappresentate con un diagramma ad albero. Uno dei vantaggi degli alberi decisionali è che sono facili da convalidare e verificare, a differenza della black box di una rete neurale.
  • Riduzione della dimensionalità: quando un set di dati selezionato ha un numero elevato di funzioni7 , ha un'elevata dimensionalità. La riduzione della dimensionalità riduce quindi il numero di funzioni, lasciando solo gli insight o le informazioni più significative. Un esempio è l'analisi delle componenti principali.
  • K-nearest neighbor: noto anche come KNN, questo algoritmo non parametrico classifica i punti dati in base alla loro prossimità e associazione ad altri dati disponibili. Presuppone che punti dati simili possano essere trovati uno vicino all'altro. Di conseguenza, cerca di calcolare la distanza tra i punti dati, solitamente attraverso la distanza euclidea, e quindi assegna una categoria in base alla categoria o alla media più frequente. 
  • Regressione lineare: la regressione lineare viene utilizzata per identificare la relazione tra una variabile dipendente e una o più variabili indipendenti ed è generalmente utilizzata per fare previsioni sui risultati futuri. Quando c'è una sola variabile indipendente e una sola variabile dipendente, si parla di regressione lineare semplice.
  • Regressione logistica: sebbene la regressione lineare sia sfruttata quando le variabili dipendenti sono continue, la regressione logistica viene selezionata quando la variabile dipendente è categorica, il che significa che ci sono output binari, come "true" e "false" o "yes" e "no". Mentre entrambi i modelli di regressione cercano di comprendere le relazioni tra gli input di dati, la regressione logistica viene utilizzata principalmente per risolvere problemi di classificazione binaria, ad esempio l'identificazione della posta indesiderata.
  • Reti neurali: sfruttate principalmente per algoritmi di deep learning, le reti neurali elaborano i dati di addestramento di input imitando l'interconnessione del cervello umano attraverso strati di nodi. Ciascun nodo è costituito da input, pesi, distorsioni (soglia) e output. Se il valore di output supera una determinata soglia, “innesca ” o attiva il nodo, passando i dati al livello successivo della rete. Le reti neurali imparano dalle regolazioni in base alla funzione di perdita attraverso il processo di discesa del gradiente. Quando la funzione di costo è pari o prossima allo zero, puoi essere sicuro della precisione del modello.
  • Naïve Bayes: questo approccio adotta il principio dell'indipendenza condizionale di classe del teorema di Bayes. Ciò significa che la presenza di una caratteristica non influisce sulla presenza di un'altra nella probabilità di un determinato risultato e ogni predittore ha un effetto uguale su quel risultato. Esistono tre tipi di classificatori Naïve Bayes: Naïve Bayes Multinomiale, Naïve Bayes Bernoulli e Naïve Bayes Gaussiano. Questa tecnica viene utilizzata principalmente nella classificazione dei testi, nell'identificazione dello spam e nei sistemi di raccomandazione.
  • Foreste casuali: in una foresta casuale, l'algoritmo di machine learning prevede un valore o una categoria combinando i risultati da una serie di alberi decisionali. La "foresta" si riferisce ad alberi decisionali non correlati, che vengono assemblati per ridurre la varianza e consentire previsioni più accurate.
  • Macchine a vettori di supporto (SVM): questo algoritmo può essere utilizzato sia per la classificazione dei dati che per la regressione, ma solitamente viene utilizzato per problemi di classificazione, creando un piano ipertestuale in cui la distanza tra due classi di punti dati è al massimo. Questo iperpiano è noto come confine decisionale, che separa le classi di punti dati (come arance e mele) su entrambi i lati del piano.
Algoritmi di apprendimento non supervisionati

A differenza dell'apprendimento supervisionato, l'apprendimento non supervisionato utilizza dati non etichettati. Da questi dati, l'algoritmo scopre modelli che aiutano a risolvere problemi di clustering o associazione. Ciò è particolarmente utile quando gli esperti del settore non sono sicuri delle proprietà comuni all'interno di un set di dati. Gli algoritmi di clustering più comuni sono quelli gerarchici, K-means, Gaussian Mixture Models e i metodi di riduzione della dimensionalità come PCA e t-SNE.

  • Clustering: questi algoritmi possono identificare i modelli nei dati in modo che possano essere raggruppati. Gli algoritmi possono aiutare i data scientist identificando le differenze tra gli elementi di dati che gli esseri umani hanno trascurato.
  • Clustering gerarchico: consente di raggruppare i dati in un albero di cluster8. Il clustering gerarchico inizia considerando ogni punto dati come un cluster separato. Quindi, esegue ripetutamente questi passaggi: 1) identificazione dei due cluster che possono essere più vicini tra loro e 2) unione due cluster più confrontabili. Questi passaggi continuano fino a quando tutti i cluster non vengono uniti.
  • K-means clustering: identifica i gruppi all'interno dei dati senza etichette9  in cluster diversi trovando gruppi di dati simili l'uno all'altro. Il nome "K-means" deriva dai centroidi $k$ utilizzati per definire i cluster. Un punto viene assegnato a un cluster specifico se è più vicino al centroide di quel cluster rispetto a qualsiasi altro centroide.

Algoritmi di apprendimento semi-supervisionati

In questo caso, l'apprendimento avviene quando solo una parte dei dati di input è stata etichettata, dando all'algoritmo un po' di "vantaggio". Questo approccio può combinare il meglio di entrambi i mondi10: una maggiore precisione associata al machine learning supervisionato e la capacità di utilizzare dati non etichettati a costi contenuti, come nel caso del machine learning non supervisionato.

Algoritmi di rinforzo

In questo caso, gli algoritmi vengono addestrati proprio come gli esseri umani - attraverso ricompense e penalità - che vengono misurate e monitorate da un agente di apprendimento perrinforzo11 che ha una comprensione generale della probabilità di far salire o scendere il punteggio. Attraverso tentativi ed errori, l'agente impara a intraprendere azioni che portano ai risultati più favorevoli nel tempo. L'apprendimento per rinforzo è spesso utilizzato12  nella gestione delle risorse, nella robotica e nei videogiochi.

Soluzioni correlate
Deep Learning

Progetta reti neurali complesse. Sperimenta su larga scala per implementare modelli di apprendimento ottimizzati all'interno di IBM Watson Studio.

Esplora il deep learning

Analitica predittiva

Analizza i dati e crea modelli di analytics e predittivi dei risultati futuri. Scopri i rischi e le opportunità per il tuo business.

Esplora l'analitica predittiva

Crea app con l'elaborazione del linguaggio naturale

NLP è l'AI che parla la lingua del tuo business. Crea soluzioni che consentono di ottenere un ROI del 383% in tre anni con IBM Watson Discovery.

Esplora la creazione di app con NLP
Risorse Apprendimento pratico e gratuito per le tecnologie di AI generativa

Impara i concetti fondamentali dell'AI e dell'AI generativa, tra cui l'ingegneria del prompt, i modelli linguistici di grandi dimensioni e i migliori progetti open-source.

Magic Quadrant for Enterprise Conversational AI Platforms, 2023

IBM è stata nuovamente riconosciuta come leader nel Gartner® Magic Quadrant™ 2023 per l'AI conversazionale aziendale.

Gartner Magic Quadrant per piattaforme di data science e machine learning

Scopri gli strumenti utilizzati dalle aziende per eseguire e gestire in modo efficiente i modelli AI e fornire ai propri data scientist una tecnologia che li aiuti a ottimizzare il processo decisionale basato sui dati.

Machine learning per principianti

Scopri come il machine learning ti consente di apprendere continuamente dai dati e di prevedere il futuro.

Come costruire un'AI responsabile su larga scala

Quattro strategie per scalare l'AI con una solida base di dati.

AI in azienda, 2021: sfruttare le opportunità attraverso i dati

La tecnologia dell’AI si è evoluta rapidamente negli ultimi vent'anni. Scopri come le aziende stanno attualmente implementando l'AI.

Take the next step

Build an AI strategy for your business on one collaborative AI and data platform—IBM watsonx. Train, validate, tune and deploy AI models to help you scale and accelerate the impact of AI with trusted data across your business.

Explore watsonx Book a live demo
Note a piè di pagina