Cos'è il machine learning?
Scopri la storia del machine learning, le definizioni importanti, le applicazioni e le preoccupazioni all'interno delle aziende oggi
Scopri Watson Assistant
Sfondo sfumato nero e blu
Cos'è il machine learning?

Il machine learning è un ramo dell'AI e dell'informatica che si concentra sull'utilizzo di dati e algoritmi per imitare il modo in cui gli esseri umani apprendono, migliorando in modo graduale la sua accuratezza.

IBM ha una vasta storia con il machine learning. La coniazione del termine "machine learning" è attribuita a uno dei suoi dipendenti, Arthur Samuel, con la sua ricerca (PDF, 481 KB) (link esterno a IBM) sul gioco della dama. Robert Nealey, autoproclamato maestro di dama, si cimentò in una partita a dama su un computer IBM 7094 nel 1962 e fu battuto dal computer. Rispetto a quello che si può fare oggi, questa impresa sembra quasi banale, ma è considerata un'importante pietra miliare nel campo dell'AI.

Negli ultimi due decenni, i progressi tecnologici nello storage e nella potenza di elaborazione hanno reso possibili alcuni prodotti innovativi basati sul machine learning, come il motore di suggerimenti di Netflix e le auto a guida autonoma.

Il machine learning è una componente importante del crescente campo della data science. Mediante l'uso di metodi statistici, gli algoritmi vengono addestrati a fare classifiche o previsioni e a individuare insight chiave all'interno dei progetti di data mining. Questi insight, successivamente, promuovono il processo decisionale nelle applicazioni e nelle aziende, incidendo auspicabilmente sulle metriche di crescita. Man mano che i big data continuano ad espandersi e a crescere, la domanda di mercato di data scientist è destinata ad aumentare. Dovranno contribuire a identificare le domande di business più rilevanti e i dati per rispondervi.

Gli algoritmi di machine learning vengono di norma creati utilizzando framework che accelerano lo sviluppo di soluzioni, come TensorFlow e PyTorch.

Vieni a conoscere watsonx.ai

Addestra, convalida, ottimizza e implementa basi e modelli di machine learning, con facilità

Confronto tra machine learning, deep learning e reti neurali

Dal momento che il deep learning e il machine learning tendono ad essere utilizzati in modo intercambiabile, vale la pena notare le sfumature che li distinguono. Il machine learning, il deep learning e le reti neurali sono tutti sottocampi dell'AI. Tuttavia, le reti neurali sono in realtà un sottocampo del machine learning e il deep learning è un sottocampo delle reti neurali.

La discriminante tra deep learning e machine learning è la modalità di apprendimento di ciascun algoritmo. Il machine learning "profondo" può utilizzare i set di dati etichettati, cosa nota anche come apprendimento supervisionato, per informare il suo algoritmo, ma non richiede necessariamente un set di dati etichettato. Il deep learning è in grado di inserire dati non strutturati nella loro forma non elaborata (ad es. testo, immagini) e può determinare automaticamente l'insieme di caratteristiche che distinguono tra loro le diverse categorie di dati. Ciò elimina parte dell'intervento umano necessario e consente l'utilizzo di set di dati più grandi. Puoi pensare al deep learning come a un "machine learning scalabile", come osserva Lex Fridman  in questa lezione al MIT (01:08:05)  (link esterno a IBM).

Il machine learning classico, o "non profondo", dipende in misura maggiore dall'intervento umano per apprendere. Gli esperti umani determinano la serie di caratteristiche per comprendere le differenze tra gli input di dati, di solito richiedendo dati più strutturati per l'apprendimento.

Le reti neurali, o reti neurali artificiali (artificial neural network, ANN), sono composte da livelli di nodi che contengono un livello di input, uno o più livelli nascosti e un livello di output. Ciascun nodo, o neurone artificiale, si connette a un altro e ha un peso e una soglia associati. Se l'output di qualsiasi singolo nodo è al di sopra del valore di soglia specificato, tale nodo viene attivato, inviando i dati al successivo livello della rete. In caso contrario, non viene passato alcun dato al livello successivo della rete. Il termine "deep" (ossia "profondo") in deep learning si riferisce semplicemente alla profondità dei livelli in una rete neurale. Una rete neurale che consiste in più di tre livelli - che sarebbero comprensivi degli input e dell'output - può essere considerata un algoritmo di deep learning o una rete neurale profonda. Una rete neurale che ha solo tre livelli è soltanto una rete neurale di base.

Al deep learning e alle reti neurali viene riconosciuto in particolare il merito di avere accelerato il progresso in aree quali la visione artificiale, l'NLP (Natural Language Processing) e il riconoscimento vocale.

Vedi il post del blog "Confronto tra AI, machine learning, deep learning e reti neurali: qual è la differenza?" per un'analisi più approfondita del modo in cui sono correlati i diversi concetti.

Come funziona il machine learning

L'Università della California, Berkeley, (link esterno a IBM) suddivide il sistema di apprendimento di un algoritmo di machine learning in tre parti principali.

  1. Un processo decisionale: in generale, gli algoritmi di machine learning sono utilizzati per fare una previsione o una classificazione. Sulla base di alcuni dati di input, che possono essere etichettati o non etichettati, l'algoritmo produrrà una stima su un modello nei dati.
  2. Una funzione di errore: una funzione di errore valuta la previsione del modello. Se esistono degli esempi noti, una funzione di errore può fare un confronto per valutare l'accuratezza del modello.
  1. Un processo di ottimizzazione del modello: se il modello può adattarsi meglio ai punti di dati nel set di addestramento, allora i pesi vengono regolati per ridurre la discrepanza tra l'esempio noto e la stima del modello. L'algoritmo ripeterà questo processo di "valutazione e ottimizzazione", aggiornando i pesi in modo autonomo fino a raggiungere una soglia di accuratezza.  
Metodi di machine learning

I modelli di machine learning rientrano in tre categorie principali.

Machine learning supervisionato            

L'apprendimento supervisionato, noto anche come machine learning supervisionato, è definito dal suo utilizzo di set di dati etichettati per addestrare gli algoritmi per classificare i dati o prevedere i risultati in modo accurato. Man mano che i dati vengono alimentati nel modello, quest'ultimo ne regola i pesi fino ad ottenere un adattamento adeguato. Questo avviene come parte del processo di convalida incrociata per garantire che il modello eviti l'overfitting o l'underfitting. L'apprendimento supervisionato aiuta le organizzazioni a risolvere una varietà di problemi del mondo reale su larga scala, come la classificazione della posta indesiderata in una cartella separata rispetto alla tua posta in arrivo. Alcuni metodi utilizzati nell'apprendimento supervisionato includono, tra gli altri, le reti neurali, i classificatori bayesiani, la regressione lineare, la regressione logistica, la random forest e la SVM (support vector machine).

Machine learning non supervisionato

L'apprendimento non supervisionato, noto anche come machine learning non supervisionato, utilizza gli algoritmi di machine learning per analizzare e organizzare in cluster i set di dati senza etichette. Questi algoritmi scoprono i raggruppamenti di dati o i pattern nascosti senza la necessità di un intervento umano. La capacità di questo metodo di scoprire similitudini e differenze nelle informazioni la rende la soluzione ideale per l'analisi esplorativa dei dati, le strategie di cross-selling, la segmentazione dei clienti e il riconoscimento di immagini e pattern. Viene utilizzato anche per ridurre il numero di caratteristiche in un modello attraverso il processo di riduzione della dimensionalità. L'analisi delle componenti principali (principal component analysis, PCA) e la scomposizione dei valori singolari (singular value decomposition, SVD) sono due approcci comuni per questo. Altri algoritmi utilizzati nell'apprendimento non supervisionato includono le reti neurali, il clustering K-means e i metodi di clustering probabilistico.

Apprendimento parzialmente supervisionato 

L'apprendimento parzialmente supervisionato rappresenta il giusto compromesso tra apprendimento supervisionato e non supervisionato. Durante l'addestramento, utilizza un set di dati etichettato più piccolo per guidare la classificazione e l'estrazione di caratteristiche da un set di dati non etichettato di dimensioni maggiori. L'apprendimento parzialmente supervisionato può risolvere il problema di non avere abbastanza dati etichettati per un algoritmo di apprendimento supervisionato. È utile anche se è troppo costoso etichettare una quantità sufficiente di dati. 

Per approfondire le differenze tra questi approcci, consulta "Confronto tra apprendimento supervisionato e non supervisionato: qual è la differenza?"

Machine learning per rinforzo

Il machine learning per rinforzo è un modello di machine learning simile all'apprendimento supervisionato, ma l'algoritmo non viene addestrato utilizzando dati campione. Questo modello apprende le informazioni durante l'utilizzo, tramite prove ed errori. Una sequenza di risultati positivi verrà rinforzata per sviluppare il miglior suggerimento o criterio per un determinato problema.

Il sistema IBM® Watson che ha vinto la sfida Jeopardy! nel 2011 è un buon esempio. Il sistema ha utilizzato l'apprendimento per rinforzo per decidere quando tentare una risposta (o una domanda, a seconda dei casi), quale riquadro selezionare sul tabellone e quanto scommettere, specialmente sui raddoppi giornalieri.

Scopri di più sull'apprendimento per rinforzo.          

Algoritmi comuni di machine learning

Vengono comunemente utilizzati diversi algoritmi di machine learning. Essi includono:

  • Reti neurali: le reti neurali simulano il modo in cui funziona il cervello umano, con un enorme numero di nodi di elaborazione collegati. Le reti neurali sono brave a riconoscere i modelli e svolgono un ruolo importante nelle applicazioni tra cui la traduzione del linguaggio naturale, il riconoscimento delle immagini, il riconoscimento vocale e la creazione di immagini.
  • Regressione lineare: questo algoritmo serve a prevedere valori numerici, sulla base di una relazione lineare tra diversi valori. Ad esempio, la tecnica potrebbe essere utilizzata per prevedere i prezzi delle case sulla base di dati storici della zona.
  • Regressione logistica:  questo algoritmo di apprendimento supervisionato fa previsioni per le variabili di risposta categoriali, come le risposte "sì/no" alle domande. Può essere utilizzato per applicazioni quali la classificazione della posta indesiderata e il controllo qualità su una linea di produzione.
  • Clustering: utilizzando l'apprendimento non supervisionato, gli algoritmi di clustering possono identificare modelli nei dati in modo che possano essere raggruppati. I computer possono aiutare i data scientist, identificando le differenze tra gli elementi di dati che sono sfuggite agli esseri umani.
  • Alberi decisionali: gli alberi decisionali possono essere utilizzati sia per prevedere valori numerici (regressione) che per classificare i dati in categorie. Gli alberi decisionali utilizzano una sequenza ramificata di decisioni collegate, che possono essere rappresentate con un diagramma ad albero. Uno dei vantaggi degli alberi decisionali è che sono facili da convalidare e controllare, a differenza della scatola nera della rete neurale.
  • Random forest: in una random forest, l'algoritmo di machine learning prevede un valore o una categoria combinando i risultati da una serie di alberi decisionali.
Casi di utilizzo del machine learning nel mondo reale

Ecco solo alcuni esempi di machine learning che potresti incontrare ogni giorno:

Riconoscimento vocale: è noto anche come riconoscimento vocale automatico (automatic speech recognition, ASR), riconoscimento vocale del computer o conversione della voce in testo, ed è una funzionalità che utilizza l'NLP (Natural Language Processing) per convertire la voce umana in un formato scritto. Molti dispositivi mobili integrano il riconoscimento vocale nei propri sistemi per condurre ricerche vocali, ad esempio Siri, o migliorare l'accessibilità per gli SMS.

Servizio clienti:   i chatbot online stanno sostituendo gli agenti umani lungo il percorso dei clienti, cambiando il modo di concepire il coinvolgimento dei clienti nei siti web e nelle piattaforme di social media. I chatbot rispondono a domande frequenti su argomenti come la spedizione, oppure forniscono suggerimenti personalizzati, fanno cross-selling di prodotti o suggeriscono le taglie agli utenti. Degli esempi includono gli agenti virtuali nei siti di e-commerce, i bot di messaggistica, che utilizzano Slack e Facebook Messenger, e le attività normalmente svolte da assistenti virtuali e assistenti vocali.

Visione artificiale: questa tecnologia AI (indicata anche con l'inglese "computer vision") consente ai computer ed ai sistemi di ricavare informazioni significative da immagini digitali, video o altri input visivi e, sulla base di questi input, intraprendere l'azione appropriata. Grazie alle reti neurali convoluzionali (convolutional neural network, CNN), la visione artificiale del computer ha applicazioni nel campo dell'aggiunta di tag a foto nei social media, nell'imaging radiologico nell'assistenza sanitaria e nelle auto a guida autonoma nel settore dell'automotive. 

Motori di suggerimenti: utilizzando i dati relativi ai comportamenti di consumo passati, gli algoritmi di AI possono aiutare a individuare le tendenze dei dati che possono essere utilizzate per sviluppare strategie di cross-selling più efficaci. Questo approccio viene utilizzato dai rivenditori online per fornire ai clienti suggerimenti pertinenti sui prodotti durante il processo di pagamento in cassa.

Trading azionario automatizzato: progettato per ottimizzare i portafogli azionari, le piattaforme di trading ad alta frequenza basate sull'AI effettuano migliaia o anche milioni di operazioni di trading al giorno senza l'intervento umano.

Rilevamento delle frodi: banche e altri istituti finanziari possono utilizzare il machine learning per individuare transazioni sospette. L'apprendimento supervisionato può addestrare un modello utilizzando informazioni su transazioni fraudolente note. Il rilevamento delle anomalie può identificare transazioni che sembrano atipiche e meritano ulteriori indagini.

Sfide del machine learning

Lo sviluppo della tecnologia di machine learning ha sicuramente reso le nostre vite più facili. Tuttavia, implementare il machine learning nelle aziende ha anche sollevato una serie di preoccupazioni etiche che riguardano le tecnologie di AI. Citiamone qualcuna:

Singolarità tecnologica

Anche se questo argomento attira una forte attenzione pubblica, molti ricercatori non sono preoccupati dall'idea che l'AI possa superare l'intelligenza umana in un futuro prossimo o immediato. La singolarità tecnologica è anche indicata come Strong AI o superintelligenza. Il filosofo Nick Bostrum definisce la superintelligenza come "qualsiasi intelletto che superi di gran lunga i migliori cervelli umani praticamente in ogni campo, compresa la creatività scientifica, la saggezza generale e le abilità sociali". Nonostante il fatto che la superintelligenza non sia imminente nella società, la sua idea solleva alcune domande interessanti quando consideriamo l'uso di sistemi autonomi, come le auto a guida autonoma. Non è realistico pensare che un'auto a guida autonoma non verrà mai coinvolta in un incidente automobilistico; ma, in tali circostanze, chi è responsabile e chi ne risponde? Dobbiamo continuare a sviluppare veicoli autonomi o limitare questa tecnologia a veicoli semi-autonomi che aiutino le persone a guidare in modo sicuro? Non si è arrivati ancora a una conclusione, sull'argomento, ma questi sono i tipi di dibattiti che stanno accompagnando lo sviluppo di nuove e innovative tecnologie di AI.

Impatto dell'AI sui posti di lavoro

La percezione dell'opinione pubblica riguardo l'AI è incentrata in larga misura sulla perdita di posti di lavoro, ma questa preoccupazione dovrebbe probabilmente essere riformulata. Come sappiamo, ogni nuova e dirompente tecnologia è accompagnata da una variazione nella domanda di mercato di specifici profili occupazionali. Ad esempio, se guardiamo all'industria automobilistica, noteremo che molti produttori, come la GM, si stanno orientando in misura crescente verso la produzione di veicoli elettrici per allinearsi alle iniziative ecologiche. Il settore dell'energia non sta scomparendo, ma la fonte di energia si sta spostando da un'economia basata sul carburante ad una basata sull'elettricità.

In modo simile, l'AI sposterà la domanda di lavoro verso altri settori. Sarà necessario che ci siano persone che aiutino a gestire i sistemi di AI. Continueranno ad essere necessarie delle risorse per occuparsi dei problemi più complessi nei settori che saranno con maggiore probabilità interessati dai mutamenti nella domanda di lavoro, come il servizio clienti. La sfida più grande dell'AI e del suo effetto sul mercato del lavoro sarà quella di aiutare le persone a passare ai nuovi ruoli che sono richiesti.

Privacy

La privacy tende a essere discussa nel contesto della privacy dei dati, della protezione dei dati e della sicurezza dei dati. Queste preoccupazioni hanno consentito ai responsabili delle politiche di fare più passi avanti negli ultimi anni. Ad esempio, nel 2016, è stata creata la legislazione GDPR per proteggere i dati personali dei cittadini dell'Unione europea e dello Spazio economico europeo, dando alle persone un maggior controllo sui loro dati. Negli Stati Uniti, i singoli Stati stanno sviluppando delle politiche, quali il CCPA (California Consumer Privacy Act), che impongono alle aziende di informare i consumatori della raccolta dei loro dati. Una legislazione come questa ha costretto le aziende a ripensare al modo in cui archiviare e utilizzare le informazioni identificabili a livello personale (personally identifiable information, PII). Di conseguenza, gli investimenti nella sicurezza sono diventati una priorità crescente per le aziende nel loro sforzo di eliminare qualsiasi vulnerabilità e opportunità di sorveglianza, hacking e attacchi informatici.

Pregiudizi e discriminazione

I casi di pregiudizio e discriminazione in diversi sistemi di machine learning hanno sollevato molte questioni etiche riguardanti l'uso dell'AI. Come possiamo salvaguardarci da pregiudizi e discriminazione quando i dati di addestramento stessi possono essere generati da processi umani tendenziosi? Seppure le aziende abbiano di solito buone intenzioni nei loro sforzi di automazione, Reuters (link esterno a IBM) evidenzia alcune delle conseguenze impreviste dell'integrazione dell'AI nelle prassi di assunzione. Nel tentativo di automatizzare e semplificare un processo, Amazon ha involontariamente introdotto un pregiudizio che colpiva i potenziali candidati ai ruoli tecnici disponibili in base al loro sesso e, alla fine, ha dovuto abbandonare il progetto. La Harvard Business Review  (link esterno a IBM) ha sollevato altre questioni importanti sull'utilizzo dell'IA nelle prassi di assunzione, ad esempio chiedendosi quali dati si dovrebbero poter utilizzare quando si valuta un candidato per un ruolo.

Pregiudizi e discriminazione non sono limitati solo alla funzione delle risorse umane; si possono trovare in diverse applicazioni, dal software di riconoscimento facciale agli algoritmi dei social media.

La crescente consapevolezza dei rischi correlati all'AI ha spinto le aziende a partecipare in modo più attivo alla discussione sull'etica e sui valori dell'AI. Ad esempio, IBM ha abbandonato i suoi prodotti per il riconoscimento e l'analisi facciale per scopi generici. Il CEO IBM Arvind Krishna ha scritto: "IBM si oppone fermamente e non tollererà l'uso di alcuna tecnologia, inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la creazione di profili razziali, le violazioni dei diritti umani e delle libertà di base, o qualsiasi scopo che non sia coerente con i nostri valori ed i nostri principi di fiducia e trasparenza".

Responsabilità

Dato che non esiste una legislazione significativa per regolamentare le prassi di AI, non esiste un vero meccanismo di implementazione per garantire che sia praticata un'AI etica. Gli attuali incentivi per le aziende a rispettare queste linee guida etiche sono le ripercussioni negative di un sistema di AI non etico sui loro profitti. Per colmare questa lacuna, sono emersi dei framework etici come parte di una collaborazione tra eticisti e ricercatori per governare la creazione e distribuzione di modelli di AI all'interno della società. Tuttavia, al momento, questi servono solo da guida. Alcune ricerche (link esterno a IBM) (PDF, 1 MB) mostrano che la combinazione di responsabilità distribuita e la mancanza di lungimiranza delle potenziali conseguenze non favorisce la prevenzione dei danni alla società.

Leggi di più sulla posizione di IBM sull'etica dell'AI.

Soluzioni correlate
Deep learning

Progetta reti neurali complesse. Sperimenta su larga scala per implementare modelli di apprendimento ottimizzati in IBM Watson Studio.

Esplora il deep learning
Analytics predittiva

Analizza i dati e crea modelli di analytics per prevedere gli esiti futuri. Scopri i rischi e le opportunità per il tuo business.

Esplora l'analytics predittiva
Crea applicazioni con l'NLP (Natural Language Processing)

L'NLP è l'AI che parla il linguaggio del tuo business. Crea soluzioni che promuovono un ROI del 383% in tre anni con IBM Watson Discovery.

Esplora la creazione di applicazioni con PNL
Risorse AI in the enterprise, 2021: Unleashing opportunity through data

La tecnologia AI si è evoluta rapidamente negli ultimi due decenni. Scopri in che modo le aziende stanno implementando l'AI oggi.

Magic Quadrant for Data Science and Machine Learning Platforms di Gartner

Scopri gli strumenti che le aziende utilizzano per eseguire e gestire in modo efficiente i modelli di AI e per dotare i loro data scientist di una tecnologia che può ottimizzare il loro processo decisionale basato sui dati.

Ebook Machine learning for dummies

Scopri in che modo il machine learning ti consente di apprendere continuamente dai dati e prevedere il futuro.

Magic Quadrant for Enterprise Conversational AI Platforms, 2023

IBM è stata nuovamente riconosciuta come leader nel Magic Quadrant™ for Enteprise Conversational AI 2023 di Gartner®.

Passa alla fase successiva

IBM Watson Studio su IBM Cloud Pak for Data supporta il machine learning end-to-end del ciclo di vita su una piattaforma di dati e AI. Puoi creare, addestrare e gestire modelli di machine learning ovunque risiedano i tuoi dati e implementarli ovunque nel tuo ambiente multicloud ibrido.Esplora come creare, addestrare e gestire modelli di machine learning ovunque risiedano i tuoi dati e implementarli ovunque nel tuo ambiente multicloud ibrido.

Esplora IBM Cloud Pak for Data oggi stesso