Machine Learning

menu icon

Machine Learning

Questa introduzione al machine learning fornisce una panoramica della sua storia, importanti definizioni, applicazioni e preoccupazioni all'interno delle aziende.

Cos'è il machine learning?

Il machine learning è un ramo dell'AI (artificial intelligence) e della computer science che si concentra sull'utilizzo di dati e algoritmi per imitare il modo in cui gli esseri umani apprendono, migliorando in modo graduale la sua accuratezza.

IBM ha una vasta storia con il machine learning. La coniazione del termine "machine learning" è attribuita a uno dei suoi, Arthur Samuel, con la sua ricerca (PDF, 481 KB) (link esterno a IBM) sul gioco della dama. Robert Nealey, l'autoproclamato maestro di dama, si cimentò in una partita a dama su un computer IBM 7094 nel 1962 e fu battuto dal computer. Rispetto a quello che si può fare oggi, questa impresa sembra quasi banale, ma è considerata un'importante pietra miliare nel campo dell'AI. Nei decenni successivi, gli sviluppi tecnologici che interesseranno lo storage e la potenza di elaborazione renderanno possibili alcuni innovativi prodotti che noi oggi conosciamo e apprezziamo, come il motore di consigli di Netflix o le auto a guida autonoma.

Il machine learning è una componente importante del crescente campo della data science. Mediante l'uso di metodi statistici, gli algoritmi vengono addestrati per effettuare classifiche o previsioni, scoprendo degli insight chiave all'interno dei progetti di data mining. Questi insight, successivamente, promuovono il processo decisionale nelle applicazioni e nelle aziende, incidendo auspicabilmente sulle metriche di crescita. Poiché i big data continuano ad espandersi e a crescere, i data scientist saranno sempre più richiesti sul mercato, e verrà loro richiesto di assistere nell'identificazione delle problematiche di business più pertinenti e, successivamente, dei dati che forniscano loro una risposta.

Confronto tra machine learning, deep learning e reti neurali

Dal momento che il deep learning e il machine learning tendono ad essere utilizzati in modo intercambiabile, vale la pena notare le sfumature che li distinguono. Il machine learning, il deep learning e le reti neurali sono tutti sottocampi dell'AI. Tuttavia, il deep learning è in effetti un sottocampo del machine learning, mentre le reti neurali sono un sottocampo del deep learning.

La discriminante tra deep learning e machine learning è la modalità di apprendimento di ciascun algoritmo. Il deep learning automatizza gran parte del processo relativo all'estrazione di caratteristiche, eliminando parte dell'intervento umano e consentendo l'uso di dataset più grandi. Puoi pensare al deep learning come a un "machine learning scalabile", come osserva Lex Fridman in questa lezione al MIT (00:30) (link esterno a IBM). Il machine learning classico, o "non profondo", dipende in misura maggiore dall'intervento umano per apprendere. Gli esperti umani determinano il set di caratteristiche per comprendere le differenze tra gli input di dati, di solito richiedendo dati più strutturati per l'apprendimento.

Il machine learning "profondo" può sfruttare i dataset etichettati, cosa nota anche come apprendimento supervisionato, per informare il suo algoritmo, ma non richiede necessariamente un dataset etichettato. Può inserire i dati non strutturati nel loro formato non elaborato (ad es. testo, immagini) e può determinare automaticamente il set di caratteristiche che distingue tra loro le diverse categorie di dati. A differenza del machine learning, non richiede l'intervento umano per elaborare i dati, consentendoci di ridimensionare il machine learning in modi più interessanti. Al deep learning e alle reti neurali viene riconosciuto in particolare il merito di avere accelerato gli avanzamenti in aree quali la visione artificiale, NLP (natural language processing) e il riconoscimento vocale.

Le reti neurali, o reti neurali artificiali (ANN), sono composte da livelli di nodi che contengono un livello di input, uno o più livelli nascosti e un livello di output. Ciascun nodo, o neurone artificiale, si connette ad un altro e ha un peso e una soglia associati. Se l'output di qualsiasi singolo nodo è al di sopra del valore di soglia specificato, tale nodo viene attivato, inviando i dati al successivo livello della rete. In caso contrario, non viene passato alcun dato al livello successivo della rete. Il termine "deep" (ossia "profondo") in deep learning si riferisce semplicemente alla profondità dei livelli in una rete neurale. Una rete neurale che consiste in più di tre livelli - che sarebbero comprensivi degli input e dell'output - può essere considerata un algoritmo di deep learning o una rete neurale profonda. Una rete neurale che ha solo due o tre livelli è soltanto una rete neurale di base.

Esamina il post del blog "AI, Machine learning, Deep learning, Reti neurali: Qual è la Differenza?" per un'analisi più approfondita delle relazioni tra i diversi concetti.

Come funziona il machine learning

L'Università della California Berkeley (link esterno a IBM) suddivide il sistema di apprendimento di un algoritmo di machine learning in tre parti principali.

  1. Un processo decisionale: in generale, gli algoritmi di machine learning sono utilizzati per fare una previsione o una classificazione. In base ad alcuni dati di input, che possono essere etichettati o non etichettati, il tuo algoritmo produrrà una stima su un pattern nei dati.
  2. Una funzione di errore: una funzione di errore serve a valutare la previsione del modello. Se esistono degli esempi noti, una funzione di errore può fare un confronto per valutare l'accuratezza del modello.
  3. Un processo di ottimizzazione del modello: se il modello può adattarsi meglio ai punti di dati nel set di addestramento, allora i pesi vengono regolati per ridurre la discrepanza tra l'esempio conosciuto e la stima del modello. L'algoritmo ripeterà questo processo di valutazione e ottimizzazione, aggiornando i pesi in modo autonomo fino a raggiungere una soglia di accuratezza.

Metodi di machine learning

I classificatori di machine learning rientrano in tre categorie principali.

Machine learning supervisionato

L'apprendimento supervisionato, noto anche come machine learning supervisionato, è definito dal suo utilizzo di dataset etichettati per addestrare gli algoritmi per classificare i dati o prevedere i risultati in modo accurato. Man mano che i dati vengono alimentati nel modello, ne regola i pesi fino a quando il fitting del modello non sarà appropriato. Questo avviene come parte del processo di convalida incrociata per garantire che il modello eviti l'overfitting o l'underfitting. L'apprendimento supervisionato aiuta le organizzazioni a risolvere una varietà di problemi del mondo reale su vasta scala, come la classificazione della posta indesiderata in una cartella separata rispetto alla tua posta in arrivo. Alcuni metodi utilizzati nell'apprendimento supervisionato includono, tra gli altri, le reti neurali, i classificatori bayesiani, la regressione lineare, la regressione logistica, la foresta casuale e SVM (support vector machine).

Machine learning non supervisionato

L'apprendimento non supervisionato, noto anche come machine learning non supervisionato, utilizza gli algoritmi di machine learning per analizzare e organizzare in cluster i dataset senza etichette. Questi algoritmi scoprono i raggruppamenti di dati o i pattern nascosti senza la necessità di un intervento umano. La sua capacità di scoprire similitudini e differenze nelle informazioni la rendono la soluzione ideale per l'analisi dei dati esplorativi, le strategie di cross-selling, la segmentazione dei clienti e il riconoscimento di immagini e pattern. Si usa anche per ridurre il numero di caratteristiche in un modello attraverso il processo di riduzione della dimensionalità; PCA (principal component analysis) e SVD (singular value decomposition) sono due approcci comuni per questa attività. Altri algoritmi utilizzati nell'apprendimento non supervisionato includono, tra l'altro, le reti neurali, il clustering K-means e i metodi di clustering probabilistico.

Apprendimento parzialmente supervisionato

L'apprendimento parzialmente supervisionato rappresenta il giusto compromesso tra apprendimento supervisionato e non supervisionato. Durante l'addestramento, utilizza un dataset etichettato più piccolo per guidare la classificazione e l'estrazione di caratteristiche da un dataset non etichettato di dimensioni maggiori. L'apprendimento parzialmente supervisionato può risolvere il problema di non disporre di un numero sufficiente di dati (o di non potersi permettere di etichettare un numero sufficiente di dati) per formare un algoritmo di apprendimento con supervisione.

Per un'analisi approfondita delle differenze tra questi approcci, consultare "Apprendimento supervisionato e non supervisionato. Qual è la differenza?"

Machine learning per rinforzo

Il machine learning per rinforzo è un modello di machine learning comportamentale simile all'apprendimento supervisionato ma l'algoritmo non viene addestrato utilizzando dati di esempio. Questo modello apprende le informazioni durante l'utilizzo, tramite prove ed errori. Una sequenza di risultati positivi verrà rinforzata per sviluppare il miglior suggerimento o politica per un determinato problema.

Il sistema IBM Watson® che ha vinto la sfida Jeopardy! nel 2011 ne costituisce un ottimo esempio. Il sistema ha utilizzato l'apprendimento per rinforzo per decidere se tentare una risposta (o domanda, a seconda dei casi), quale riquadro selezionare e quanto scommettere, specialmente sui raddoppi giornalieri.

Scopri di più sull'apprendimento per rinforzo.

Casi di utilizzo del machine learning nel mondo reale

Ecco solo alcuni esempi di machine learning che potresti incontrare ogni giorno:

Riconoscimento vocale: è noto anche come riconoscimento vocale automatico (ASR, automatic speech recognition), riconoscimento vocale del computer o conversione del parlato in testo scritto (STT, Speech-to-text) ed è una funzionalità che utilizza NLP (natural language processing) per elaborare il parlato umano in un formato scritto. Molti dispositivi mobili incorporano il riconoscimento vocale nei loro sistemi per effettuare ricerche vocali, ad es. Siri, o per fornire una maggiore accessibilità per quanto riguarda la scrittura di messaggi.

Servizio clienti: i chatbot online stanno sostituendo gli agenti umani lungo il percorso del cliente. Rispondono a domande frequenti sugli argomenti, come la spedizione, o forniscono consigli personalizzati, eseguendo il cross-selling di prodotti o consigliando le taglie per gli utenti, cambiando il modo in cui pensiamo al coinvolgimento del cliente nei siti web e sulle piattaforme di social media. Degli esempi includono i bot di messaggistica sui siti di e-commerce con gli agenti virtuali, le app di messaggistica, come Slack e Facebook Messenger, e le attività solitamente effettuate da assistenti virtuali e assistenti vocali.

Visione artificiale: questa tecnologia di AI consente ai computer e ai sistemi di ricavare informazioni significative da immagini digitali, video o altri input visivi e, sulla base di questi input, può intervenire. Questa capacità di fornire consigli la distingue dalle attività di riconoscimento delle immagini. Basato sulle reti neurali convolutive (CNN, convolutional neural network), la visione artificiale del computer ha applicazioni nel campo dell'aggiunta di tag a foto nei social media, nell'imaging radiologico nell'assistenza sanitaria e nelle auto a guida autonoma nell'industria automobilistica.

Motori di consigli: utilizzando i dati relativi ai comportamenti di consumo passati, gli algoritmi di AI possono aiutare a scoprire le tendenze dei dati che possono essere utilizzate per sviluppare strategie di cross-selling più efficaci. Se ne fa uso per offrire dei consigli di prodotti aggiuntivi pertinenti ai clienti durante il processo di pagamento per i rivenditori online.

Trading azionario automatizzato: progettate per ottimizzare i portafogli azionari, le piattaforme di trading ad alta frequenza basate sull'AI effettuano migliaia o anche milioni di operazioni di trading al giorno senza intervento umano.

Sfide del machine learning

La continua evoluzione della tecnologia di machine learning ha sicuramente reso le nostre vite più facili. Tuttavia, implementare il machine learning nelle aziende ha anche sollevato una serie di preoccupazioni etiche che riguardano le tecnologie di AI. Citiamone qualcuna:

Singolarità tecnologica:

Anche se questo argomento attira molta attenzione pubblica, molti ricercatori non sono preoccupati dall'idea che l'AI possa superare l'intelligenza umana in un futuro prossimo o immediato. Questa è indicata anche come superintelligenza, che Nick Bostrum definisce come "qualsiasi intelletto capace di superare ampiamente l’intelligenza dell’uomo praticamente sotto ogni aspetto, inclusa la creatività scientifica, la saggezza generale e le abilità sociali". Benché l'AI forte e la superintelligenza non siano imminenti nella nostra società, sono un concetto che solleva interessanti questioni mentre prendiamo in considerazione l'uso di sistemi autonomi, come le auto a guida autonoma. Non è realistico pensare che un'auto a guida autonoma non verrà mai coinvolta in un incidente automobilistico ma in tali circostanze chi è responsabile e chi ne risponde? Dovremmo continuare a dedicarci ai veicoli autonomi o limitiamo l'integrazione di questa tecnologia per creare solo veicoli semiautonomi che promuovono la sicurezza tra i conducenti? Non si è arrivati ancora a una conclusione, sull'argomento, ma questi sono i tipi di dibattiti che stanno accompagnando lo sviluppo di nuove e innovative tecnologie di AI.

Impatto dell'AI sui posti di lavoro:

La percezione dell'opinione pubblica riguardo l'AI è incentrata in larga misura sulla perdita di posti di lavoro, ma questa preoccupazione dovrebbe probabilmente essere riformulata. Come sappiamo, ogni nuova e dirompente tecnologia è accompagnata da una variazione nella domanda di mercato di specifici profili occupazionali. Ad esempio, se guardiamo all'industria automobilistica, noteremo che molti produttori, come la GM, si stanno orientando in misura crescente verso la produzione di veicoli elettrici per allinearsi alle iniziative ecologiche. L'industria dell'energia non sta uscendo di scena ma la fonte di energia si sta spostando da un'economia basata sul carburante a una basata sull'elettricità. Si dovrebbe guardare all'AI in un modo analogo, in uno scenario in cui l'AI sposterà la domanda di lavori verso altre aree. Sarà necessaria la disponibilità di persone che contribuiscano a gestire questi sistemi, mentre i dati crescono e cambiano ogni giorno. Continueranno a essere necessarie delle risorse per occuparsi dei problemi più complessi nei settori che saranno con maggiore probabilità interessati dai mutamenti nella domanda di lavori, come il servizio clienti. L'aspetto importante dell'AI e il suo effetto sul mercato del lavoro sarà quello di aiutare le persone e eseguire la transizione a queste nuove aree della domanda di mercato.

Privacy:

La privacy tende a essere discussa nel contesto della privacy, protezione e sicurezza dei dati, e queste preoccupazioni hanno consentito ai responsabili delle politiche di realizzare ulteriori progressi in materia, negli ultimi anni. Ad esempio, nel 2016, è stata creata la legislazione GDPR per proteggere i dati personali dei cittadini dell'Unione europea e dello Spazio economico europeo, dando alle persone un maggior controllo sui loro dati. Negli Stati Uniti, i singoli Stati stanno sviluppando delle politiche, quali il CCPA (California Consumer Privacy Act), che impongono alle aziende di informare i consumatori della raccolta dei loro dati. Questa recente legislazione ha costretto le aziende a riformulare il modo in cui archiviano e usano dati di identificazione personale (PII, personally identifiable data). Di conseguenza, gli investimenti nella sicurezza sono diventati una priorità crescente per le aziende nel loro sforzo di eliminare qualsiasi vulnerabilità e opportunità di sorveglianza, hacking e attacchi informatici.

Pregiudizio e discriminazione:

Casi di pregiudizio e discriminazione in diversi sistemi intelligenti hanno sollevato molte questioni etiche riguardanti l'uso dell'AI. Come possiamo tutelarci dal pregiudizio e dalla discriminazione quando l'addestramento dei dati stesso può prestarsi al pregiudizio? Seppure le aziende abbiano di solito buone intenzioni nei loro sforzi di automazione, Reuters (link esterno a IBM) evidenzia alcune delle conseguenze impreviste dell'integrazione dell'AI nelle pratiche di assunzione. Nel suo sforzo di automatizzare e semplificare un processo, Amazon ha involontariamente introdotto un pregiudizio che colpiva i potenziali candidati ai ruoli tecnici disponibili in base al loro sesso e, alla fine, ha dovuto abbandonare il progetto. Mentre vengono alla luce eventi del genere, Harvard Business Review (link esterno a IBM) ha sollevato altre domande specifiche sull'utilizzo dell'AI nelle procedure di assunzione, ad esempio chiedendosi quali dati si dovrebbero poter utilizzare quando si valuta un candidato per un ruolo.

Pregiudizio e discriminazione non si limitano neanche alla funzione delle risorse umane; si possono trovare in diverse applicazioni, dal software di riconoscimento facciale agli algoritmi dei social media.

La crescente consapevolezza dei rischi correlati all'AI ha spinto le aziende a partecipare in modo più attivo alla discussione sull'etica e i valori dell'AI. Ad esempio, l'anno scorso, l'amministratore delegato di IBM Arvind Krishna ha decretato l'abbandono dei prodotti di analisi e riconoscimento facciale a uso generico di IBM, sottolineando che "IBM si oppone con fermezza e non giustificherà l'utilizzo di qualsiasi tecnologia, compresa quella di riconoscimento facciale offerta da altri vendor, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti e delle libertà umane di base o per qualsiasi scopo che non sia coerente con i nostri valori e principi di fiducia e trasparenza".

Per approfondire questo argomento, consulta il blog delle politiche di IBM, che comunica il suo punto di vista nel post "A Precision Regulation Approach to Controlling Facial Recognition Technology Exports".

Responsabilità

Dato che non esiste una legislazione significativa per regolamentare le prassi di AI, non esiste un vero meccanismo di implementazione per garantire che sia praticata un'AI etica. Gli attuali incentivi per le aziende a rispettare queste linee guida sono le ripercussioni negative di un sistema di AI non etica sui loro utili. Per colmare questa lacuna, sono emersi dei quadri etici come parte di una collaborazione tra eticisti e ricercatori per governare la creazione e distribuzione di modelli di AI all'interno della società. Tuttavia, al momento, questi servono solo per fornire un orientamento e la ricerca (link esterno a IBM) (PDF, 984 KB) mostra che la combinazione di responsabilità distribuita e mancanza di lungimiranza nelle potenziali conseguenze non predispone necessariamente a prevenire danni alla società.

Per approfondire la posizione di IBM in materia di etica dell'AI, puoi trovare ulteriori informazioni qui.

Machine learning e IBM Cloud

IBM Watson Machine Learning supporta il ciclo di vita del machine learning end-to-end. È disponibile in una gamma di offerte che consentono di creare modelli di machine learning ovunque risiedano i tuoi dati e di distribuirli ovunque nel tuo ambiente multicloud ibrido.

IBM Watson Machine Learning su IBM Cloud Pak for Data aiuta i team AI e di data science a velocizzare lo sviluppo e la distribuzione dell'AI ovunque, su una piattaforma di dati e AI nativi del cloud. IBM Watson Machine Learning Cloud, un servizio gestito nell'ambiente IBM Cloud, è il modo più veloce per spostare i modelli dalla sperimentazione sul desktop alla distribuzione per i carichi di lavoro di produzione. Per i team più piccoli che cercano di scalare distribuzioni di machine learning, IBM Watson Machine Learning Server offre un'installazione semplice su qualsiasi cloud privato o pubblico.

Per iniziare, registrati per ottenere un IBMid e creare il tuo account IBM Cloud.