Che cos'è il machine learning (ML)?
Esplora la soluzione di machine learning di IBM Abbonati per ricevere gli aggiornamenti sull'AI
Illustrazione che mostra le risorse inserite nelle macchine
Machine learning, deep learning e reti neurali

Poiché i termini deep learning e machine learning tendono a essere usati in modo intercambiabile, vale la pena di notare le sfumature che li differenziano. Machine learning, deep learning e reti neurali sono tutti sottoinsiemi dell'intelligenza artificiale. Tuttavia, le reti neurali sono in realtà un sottoinsieme del machine learning, e il deep learning è un sottoinsieme delle reti neurali.

La differenza tra deep learning e machine learning riguarda il modo in cui ciascun algoritmo apprende. Il machine learning "profondo" (deep) utilizza i dataset etichettati, noti anche come apprendimento controllato, per informarne l'algoritmo, ma non richiede necessariamente un dataset etichettato. Il processo di deep learning acquisisce dati non strutturati nella loro forma grezza (come testo o immagini) e può determinare automaticamente l'insieme di funzioni che distinguono le diverse categorie di dati l'una dall'altra. Ciò elimina parte dell’intervento umano richiesto e consente l'uso di grandi quantità di dati. Si può pensare al deep learning come al "machine learning scalabile", come Lex Fridman spiega in questa lezione all'MIT (link esterno a ibm.com).

Il machine learning classico, o "non profondo", dipende maggiormente dall'intervento umano. Gli esperti umani determinano il set di caratteristiche per comprendere le differenze tra gli input di dati, che in genere richiedono dati più strutturati per l'apprendimento.

Le reti neurali, o reti neurali artificiali (ANN), sono costituite da livelli di nodi contenenti uno o più livelli di input, uno o più livelli nascosti e uno strato di output. Ciascun nodo, o neurone artificiale, si connette a un altro e ha un peso e una soglia associati. Se l'output di qualsiasi singolo nodo è al di sopra del valore di soglia specificato, tale nodo viene attivato, inviando i dati al livello successivo della rete. In caso contrario, da quel nodo non viene passato alcun dato al livello successivo della rete. Il termine "profondo (deep)" nel deep learning si riferisce solo al numero dei livelli di una rete neurale. Una rete neurale composta da più di tre livelli, che includerebbero gli input e l'output, può essere considerata un algoritmo di deep learning o una rete neurale. Una rete neurale che ha solo tre livelli è solo una rete neurale di base.

Al deep learning e alle reti neurali viene riconosciuto il merito di aver accelerato i progressi in settori quali computer vision, elaborazione del linguaggio naturale e riconoscimento vocale.

Leggi il post sul blog "AI, machine learning, deep learning e reti neurali: Qual è la differenza?" per un'analisi più approfondita di come si relazionano i diversi concetti.

Contenuti correlati

Esplora la demo interattiva watsonx.ai

Scarica "Machine learning per principianti"

Esplora la GenAI per sviluppatori

Metodi di machine learning

I modelli di machine learning rientrano in tre categorie primarie.

Machine learning supervisionato            

L'apprendimento supervisionato, noto anche come machine learning supervisionato, è definito dall'uso di dataset etichettati per formare algoritmi che classificano i dati o prevedono i risultati in modo accurato. Man mano che i dati di input vengono inseriti nel modello, il modello regola i suoi pesi fino a quando non vengono adattati in modo appropriato. Questo si verifica come parte del processo di convalida incrociata per garantire che il modello eviti overfitting o underfitting. L'apprendimento supervisionato aiuta le organizzazioni a risolvere una serie di problemi reali su larga scala, come la classificazione dello spam in una cartella separata dalla posta in arrivo. Alcuni metodi utilizzati nell'apprendimento supervisionato includono reti neurali, naïve bayes, regressione lineare, regressione logistica, la foresta casuale e la macchina a vettori di supporto (SVM).

Machine learning non supervisionato

L'Apprendimento non supervisionato, noto anche come machine learning non supervisionato, utilizza algoritmi di apprendimento automatico per analizzare e raggruppare dataset non etichettati (sottoinsiemi chiamati cluster). Questi algoritmi scoprono modelli nascosti o raggruppamenti di dati senza la necessità dell'intervento umano. La capacità di questo metodo di scoprire somiglianze e differenze nelle informazioni lo rende ideale per l'analisi esplorativa dei dati, le strategie di cross-selling, la segmentazione dei clienti e il riconoscimento di immagini e modelli. Viene utilizzato anche per ridurre il numero di funzioni in un modello attraverso il processo di riduzione della dimensionalità. L'analisi dei componenti principali (PCA) e la scomposizione dei valori singolari (SVD) sono due approcci comuni. Altri algoritmi utilizzati nell'apprendimento non supervisionato includono reti neurali, k-means clustering e metodi di clustering probabilistico.

Apprendimento semi-supervisionato 

L'apprendimento semi-supervisionato offre una via di mezzo tra l'apprendimento supervisionato e quello non supervisionato. Durante l'addestramento, utilizza un piccolo set di dati etichettati per guidare la classificazione e l'estrazione di funzioni da un set di dati più grande e non etichettati. L'apprendimento supervisionato può risolvere il problema della scarsità di dati etichettati per un algoritmo di apprendimento supervisionato. È utile anche se etichettare un numero sufficiente di dati risulta troppo costoso. 

Per un approfondimento delle differenze tra questi approcci, consulta "Apprendimento supervisionato e non supervisionato: qual è la differenza?"

Machine learning per rinforzo

Il machine learning per rinforzo è un modello di machine learning simile all'apprendimento supervisionato, ma l'algoritmo non viene addestrato utilizzando dati di esempio. Questo modello impara per tentativi ed errori man mano che procede. Una sequenza di risultati positivi sarà rafforzata per sviluppare la migliore raccomandazione o politica per un determinato problema.

Il sistema IBM Watson che ha vinto la sfida Jeopardy! nel 2011 ne è un buon esempio. Il sistema ha utilizzato l'apprendimento di rinforzo per capire quando tentare di rispondere (o di fare una domanda, a seconda), quale quadrato selezionare sul tabellone e quanto puntare, soprattutto per i lascia o raddoppia.

Maggiori informazioni sull'apprendimento per rinforzo      

Algoritmi di machine learning comuni

Vengono comunemente utilizzati numerosi algoritmi di apprendimento automatico, tra cui:

  • Reti neurali: le reti neurali  simulano il modo in cui funziona il cervello umano, con un numero elevato di nodi di elaborazione collegati. Sono in grado di riconoscere i modelli e svolgono un ruolo importante in applicazioni come la traduzione del linguaggio naturale, il riconoscimento delle immagini, il riconoscimento vocale e la creazione di immagini.
  • Regressione lineare: questo algoritmo viene utilizzato per prevedere valori numerici, in base a una relazione lineare tra valori diversi. Ad esempio, la tecnica potrebbe essere utilizzata per prevedere i prezzi delle case sulla base dei dati storici della zona.
  • Regressione logistica: questo algoritmo di apprendimento supervisionato effettua previsioni per variabili di risposta categoriche, come risposte "sì/no" alle domande. Può essere utilizzato per applicazioni come classificazione dello spam e controllo qualità su una linea di produzione.
  • Clustering: utilizzando l'apprendimento non supervisionato, gli algoritmi di clustering possono identificare i modelli nei dati, in modo da raggrupparli. I computer possono aiutare i data scientist identificando le differenze tra gli elementi di dati che gli esseri umani hanno trascurato.
  • Alberi decisionali: gli alberi decisionali possono esseri utilizzati sia per prevedere valori numerici (regressione) che per classificare i dati in categorie. Gli alberi decisionali utilizzano una sequenza di ramificazione di decisioni collegate che possono essere rappresentate con un diagramma ad albero.Uno dei vantaggi degli alberi decisionali è che sono facili da convalidare e verificare, a differenza della black box della rete neurale.
  • Foreste casuali: in una foresta casuale, l'algoritmo di machine learning prevede un valore o una categoria combinando i risultati da una serie di alberi decisionali.
Vantaggi e svantaggi degli algoritmi di machine learning 

A seconda del tuo budget, della velocità e della precisione richieste, ogni tipo di algoritmo, supervisionato, non supervisionato, semi-supervisionato o rinforzato, presenta vantaggi e svantaggi. Ad esempio, gli algoritmi degli alberi decisionali vengono utilizzati sia per prevedere valori numerici (problemi di regressione) che per classificare i dati in categorie. Gli alberi decisionali utilizzano una sequenza di ramificazione di decisioni collegate che possono essere rappresentate con un diagramma ad albero. Uno dei principali vantaggi degli alberi decisionali è che sono più facili da convalidare e controllare rispetto a una rete neurale. La brutta notizia è che possono essere più instabili rispetto ad altri predittori decisionali. 

Nel complesso, il machine learning presenta molti vantaggi che le aziende possono sfruttare per ottenere nuove efficienze, tra cui l'identificazione di modelli e tendenze in enormi volumi di dati che gli esseri umani potrebbero non individuare affatto. Questa analisi richiede poco intervento umano: basta inserire il set di dati di interesse e lasciare che il sistema di apprendimento automatico assembli e perfezioni i propri algoritmi, che miglioreranno continuamente con l'inserimento di più dati nel tempo. Clienti e utenti possono godere di un'esperienza più personalizzata, poiché il modello impara di più ad ogni esperienza con quella persona.

Il rovescio della medaglia è che il machine learning richiede set di dati di addestramento di grandi dimensioni, accurati e imparziali. Il fattore operativo è il GIGO: garbage in/garbage out. Anche la raccolta di dati sufficienti e la disponibilità di un sistema abbastanza robusto da eseguirli potrebbero comportare un dispendio di risorse. Il machine learning può anche essere soggetto a errori, a seconda dell'input. Con un campione troppo piccolo, il sistema può produrre un algoritmo perfettamente logico ma completamente sbagliato o fuorviante. Per evitare di sprecare budget o di scontentare i clienti, le organizzazioni devono agire in base alle risposte solo quando c'è un'elevata fiducia nell'output.

Casi d'uso del machine learning nel mondo reale

Ecco alcuni esempi di machine learning che potresti incontrare ogni giorno:

Riconoscimento vocale: è anche noto come riconoscimento vocale automatico (ASR), riconoscimento vocale computerizzato o speech-to-text, ed è una funzionalità che utilizza l'elaborazione del linguaggio naturale (NLP) per tradurre il discorso umano in un formato scritto. Molti dispositivi mobili incorporano il riconoscimento vocale nei loro sistemi per condurre ricerche vocali, ad esempio Siri, oppure migliorano l'accessibilità per gli SMS.

Assistenza clienti:  i chatbot online stanno sostituendo gli agenti umani lungo il percorso del cliente, cambiando il modo in cui pensiamo al coinvolgimento dei clienti su tutti i siti web e le piattaforme di social media. I chatbot rispondono alle domande frequenti (FAQ) su argomenti come la spedizione, oppure forniscono consigli personalizzati, cross-selling di prodotti o suggerimenti di taglie per gli utenti. Alcuni esempi includono gli agenti virtuali sui siti di e-commerce, bot di messaggistica, Slack e Facebook Messenger e attività normalmente eseguite da assistenti virtuali e assistenti vocali.

Computer vision: questa tecnologia AI consente ai computer di ottenere informazioni significative da immagini digitali, video e altri input visivi, per poi intraprendere le azioni appropriate. Grazie alle reti neurali convoluzionali, la computer vision trova applicazione nel tagging delle foto nei social media, nell'imaging radiologico nel settore sanitario e nelle auto a guida autonoma nel settore automobilistico. 

Motori di raccomandazione: utilizzando i dati sul comportamento d'acquisto, gli algoritmi di AI possono aiutare a scoprire le tendenze dei dati che possono essere utilizzate per sviluppare strategie di cross-selling più efficaci. I motori di raccomandazione vengono utilizzati dai rivenditori online per fornire consigli pertinenti sui prodotti ai clienti durante il processo di checkout.

Robotic Process Automation (RPA): nota anche come robotica del software, l'RPA utilizza tecnologie di automazione intelligenti per eseguire attività manuali ripetitive.

Trading azionario automatizzato: progettate per ottimizzare i portafogli azionari, le piattaforme di trading ad alta frequenza basate sull’AI effettuano migliaia o addirittura milioni di operazioni al giorno senza l'intervento umano.

Rilevamento delle frodi: le banche e altri istituti finanziari possono utilizzare l'apprendimento automatico per individuare le transazioni sospette. L'apprendimento supervisionato può addestrare un modello utilizzando informazioni sulle transazioni fraudolente note. Il rilevamento delle anomalie può identificare le transazioni apparentemente atipiche e meritano ulteriori indagini.

Le sfide del machine learning

Lo sviluppo della tecnologia di machine learning ha certamente semplificato la nostra vita. Tuttavia, la sua implementazione nelle aziende ha anche sollevato una serie di preoccupazioni etiche sulle tecnologie di AI. Alcune di queste includono:

Singolarità tecnologica

Sebbene questo argomento generi molta attenzione pubblica, molti ricercatori non sono preoccupati dall'idea che l'AI superi l'intelligenza umana nel prossimo futuro. La singolarità tecnologica è anche indicata come AI forte o superintelligenza. Il filosofo Nick Bostrum definisce la superintelligenza come "qualsiasi intelletto che supera notevolmente i migliori cervelli umani praticamente in ogni campo, tra cui creatività scientifica, saggezza generale e competenze sociali". Nonostante la superintelligenza non sia imminente nella società, la sua idea solleva alcune domande interessanti quando consideriamo l'uso di sistemi autonomi, come le auto a guida autonoma. È irrealistico pensare che un'auto senza conducente non avrebbe mai un incidente, ma chi sarebbe responsabile in tali circostanze? Dobbiamo sviluppare comunque veicoli autonomi oppure è meglio limitare questa tecnologia ai veicoli semi-autonomi che aiutano le persone a guidare in sicurezza? Su questo ancora non c'è un verdetto, ma questi sono i tipi di dibattiti etici che si verificano con lo sviluppo di tecnologie di AI innovative.

Impatto dell'AI sui posti di lavoro

Sebbene la percezione pubblica dell'intelligenza artificiale sia incentrata sulla perdita di posti di lavoro, questa preoccupazione dovrebbe essere riformulata. Come ogni nuova tecnologia dirompente, vedremo che la domanda di mercato per specifiche posizioni lavorative cambierà. Guardiamo ad esempio al settore automobilistico, dove molti produttori, come GM, si stanno concentrando sulla produzione di veicoli elettrici per allinearsi alle iniziative ecologiche. Il settore energetico non scomparirà, ma le fonti di energia si stanno spostando dal risparmio di carburante all'energia elettrica.

Allo stesso modo, l'intelligenza artificiale reindirizzerà la domanda di posti di lavoro verso altri settori. Ci sarà bisogno di persone che aiutino a gestire i sistemi di AI di persone che si occupino di problemi più complessi all'interno dei settori che, con più probabilità, saranno interessati dai cambiamenti della domanda di lavoro, ad esempio il servizio clienti. La sfida più grande dell'intelligenza artificiale e il suo effetto sul mercato del lavoro sarà aiutare le persone a passare a nuovi ruoli richiesti.

Privacy

La privacy tende a essere discussa nel contesto della privacy, della protezione e della sicurezza dei dati. Queste preoccupazioni hanno consentito ai politici di compiere ulteriori passi avanti negli ultimi anni. Ad esempio, nel 2016 è stata creata la normativa GDPR a tutela dei dati personali dei residenti dell'Unione Europea e dello Spazio Economico Europeo, offrendo agli utenti un maggiore controllo sui propri dati. Negli Stati Uniti, anche i singoli stati stanno sviluppando normative simili, come il California Consumer Privacy Act (CCPA), introdotto nel 2018, che richiede alle aziende di informare i consumatori sulla raccolta dei loro dati. Una legislazione come questa ha costretto le aziende a riconsiderare il modo in cui archiviano e utilizzano le informazioni di identificazione personale (PII). Di conseguenza, gli investimenti nella sicurezza sono diventati una priorità crescente per le aziende che desiderano eliminare qualsiasi vulnerabilità e opportunità di sorveglianza, hacking e attacchi informatici.

Bias e discriminazioni

I casi di bias e discriminazioni in numerosi sistemi di apprendimento automatico hanno sollevato molte questioni etiche riguardanti l'uso dell’intelligenza artificiale. Come possiamo proteggerci da bias e discriminazioni quando i dati di addestramento stessi possono essere generati da processi umani distorti? Anche se, in genere, le aziende hanno buone intenzioni per i loro sforzi di automazione, Reuters (link esterno a ibm.com) evidenzia alcune delle conseguenze impreviste dell'integrazione dell'AI nelle pratiche di assunzione. Nel tentativo di automatizzare e semplificare un processo, Amazon ha involontariamente discriminato i candidati in base al sesso per ruoli tecnici e, alla fine, l'azienda ha dovuto abbandonare il progetto. Harvard Business Review (link esterno a ibm.com) ha sollevato altre domande precise sull'uso dell'AI nelle pratiche di assunzione, ad esempio quali dati utilizzare durante la valutazione di un candidato per un ruolo.

I bias e le discriminazioni non si limitano alla funzione delle risorse umane: possono essere trovati in una serie di applicazioni, dai software di riconoscimento facciale agli algoritmi dei social media.

Man mano che le aziende sono diventate più consapevoli dei rischi dell'AI, sono anche diventate più attive nella discussione sull'etica e sui valori dell'AI. Ad esempio, IBM ha abbandonato i suoi prodotti di riconoscimento facciale e analisi per uso generale. Arvind Krishna, CEO di IBM, ha scritto: "IBM si oppone fermamente e non condonerà l'uso di qualsiasi tecnologia, compresa quella di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà fondamentali, o qualsiasi scopo che non sia coerente con i nostri valori e i nostri Principi di fiducia e trasparenza."

Responsabilità

Poiché non esiste una legislazione significativa che regolamenti le pratiche di AI, non esiste un vero meccanismo di applicazione per garantire che venga praticata l'AI etica. Gli attuali incentivi di etica per le aziende sono le ripercussioni negative sui profitti di un sistema di AI non etico. Per colmare il divario, sono emersi appositi framework nell'ambito di una collaborazione tra esperti di etica e ricercatori per governare la costruzione e la distribuzione dei modelli AI all'interno della società. Tuttavia, al momento, fungono solo da guide. Alcune ricerche (link esterno a ibm.com) mostrano che la combinazione di responsabilità distribuita e mancanza di lungimiranza sulle potenziali conseguenze non aiuta a prevenire danni alla società.

Scopri di più sulla posizione di IBM sull'etica dell'AI

Come scegliere la giusta piattaforma di AI per il machine learning 

La selezione di una piattaforma può essere un processo impegnativo, poiché un sistema sbagliato può aumentare i costi o limitare l'uso di altri strumenti o tecnologie preziosi. Quando si controllano più fornitori per selezionare una piattaforma di AI, spesso si tende a pensare che più funzioni equivalgano a un sistema migliore. Forse è così, ma chi svolge questa analisi dovrebbe pensare a ciò che la piattaforma di AI può fare per l'organizzazione. Quali funzionalità di machine learning devono essere fornite e quali funzionalità sono importanti per realizzarle? Una funzione mancante può condannare l'integrità di un intero sistema. Ecco alcune caratteristiche da considerare.

  • Funzionalità MLOps. Il sistema ha:
    • un'interfaccia unificata per semplificare la gestione?
    • strumenti di machine learning automatizzati per una creazione più rapida di modelli con funzionalità low-code e no-code?
    • un'ottimizzazione delle decisioni per semplificare la selezione e l'implementazione dei modelli di ottimizzazione?
    • modellazione visiva per combinare data science visiva, librerie open source e interfacce basate su appunti in uno studio unificato di dati e AI?
    • sviluppo automatizzato che permetta ai principianti di iniziare rapidamente e ai data scientist più avanzati di sperimentare?
    • un generatore di dati sintetici come alternativa o integrazione ai dati reali quando questi ultimi non sono prontamente disponibili?
       
  • Funzionalità di AI generativa. Il sistema ha:
    • un generatore di contenuti in grado di generare testo, immagini e altri contenuti basati sui dati su cui è stato addestrato?
    • una classificazione automatica per leggere e classificare input scritti, come la valutazione e lo smistamento dei reclami dei clienti o l'analisi del sentiment?
    • un generatore di riepiloghi in grado di trasformare un testo denso in un riepilogo di alta qualità, di acquisire punti chiave dai report finanziari e di generare le trascrizioni delle riunioni?
    • una funzionalità di estrazione dei dati per ordinare dettagli complessi ed estrarre rapidamente le informazioni necessarie da documenti di grandi dimensioni?
Risorse Apprendimento pratico e gratuito per le tecnologie di AI generativa

Impara i concetti fondamentali dell'AI e dell'AI generativa, tra cui il prompt engineering, i modelli linguistici di grandi dimensioni e i migliori progetti open source.

AI in azienda, 2021: sfruttare le opportunità attraverso i dati

La tecnologia dell’AI si è evoluta rapidamente negli ultimi vent'anni. Scopri come le aziende stanno attualmente implementando l'AI.

Gartner Magic Quadrant per piattaforme di data science e machine learning

Scopri gli strumenti utilizzati dalle aziende per eseguire e gestire in modo efficiente i modelli AI e fornire ai propri data scientist una tecnologia che li aiuti a ottimizzare il processo decisionale basato sui dati.

Ebook: Machine learning per principianti

Scopri come i progetti di machine learning aiutano ad apprendere continuamente dai dati e a prevedere il futuro.

Magic Quadrant for Enterprise Conversational AI Platforms, 2023

IBM è stata nuovamente riconosciuta come leader nel Gartner Magic Quadrant™ 2023 per l'AI conversazionale aziendale.

Modelli per il machine learning

Esplora le idee alla base dei modelli di ML e alcuni algoritmi chiave utilizzati per ciascuno di essi.

Fai il passo successivo

Addestra, convalida, ottimizza e distribuisci funzionalità di AI generativa, foundation model e machine learning con IBM watsonx.ai, uno studio aziendale di nuova generazione per builder AI. Crea applicazioni AI con tempi ridotti e una minima quantità di dati.

Esplora watsonx.ai Prenota una demo live