Il panorama normativo globale in materia di AI è sempre più complesso e in continua evoluzione. L'approccio IBM all'<a href=" " target="">etica dell'AI bilancia l'innovazione con la responsabilità, aiutandoti ad adottare un'AI affidabile su larga scala.
Promuovere un futuro più etico sfruttando la tecnologia
Case study: Costruire fiducia nell'AI
I nuovi Data Provenance Standards, creati da Data & Trust Alliance insieme a IBM, offrono una tassonomia dei metadati esclusiva per supportare la trasparenza sull'origine dei dati.
Questo riconoscimento sottolinea l'approccio differenziato di IBM alla fornitura di foundation model di livello enterprise, aiutando i clienti ad accelerare l'adozione della gen AI nei loro workflow aziendali e mitigando al contempo i rischi relativi ai foundation model.
La legge dell'UE sull'AI ha inaugurato una nuova era per la governance dell'AI. Cosa c'è da sapere e da fare per risultare conformi?
Tre leader IBM condividono i propri insight sulle opportunità e sulle sfide più importanti che i nuovi CAIO dovranno affrontare nei primi 90 giorni.
Scopri le strategie e gli strumenti che possono aiutare a mitigare i rischi unici posti dai foundation model.
Scopri come uno sviluppo e un'implementazione responsabili della tecnologia AI fanno bene sia alle persone che al pianeta.
I leader di IBM Christina Montgomery e Joshua New suggeriscono ai decisori politici tre priorità chiave per mitigare i danni dei deepfake.
Nella creazione di esperienze senza interruzioni, la ricerca di un buon design non deve compromettere la trasparenza.
Se opportunamente calibrata, l'AI può aiutare le persone a prendere decisioni più corrette.
Poiché i sistemi vengono utilizzati per prendere decisioni cruciali, l'AI deve essere sicura e affidabile.
La trasparenza rafforza la fiducia e il modo migliore per promuovere la trasparenza è attraverso la divulgazione.
I sistemi AI devono dare priorità alla privacy e salvaguardare i diritti sui dati dei consumatori.
I valori umani sono al centro dell'AI responsabile.
In una nuova serie, IBM e Data & Trust Alliance offrono spunti di riflessione sulla necessità di governance, in particolar modo nell'era dell'AI generativa.
Un approccio alla regolamentazione dell'AI basato sul rischio e sul contesto può mitigare i potenziali rischi , compresi quelli posti dai modelli di fondazione.
L'IBM AI Ethics Board è al centro dell'impegno di IBM per la fiducia. La sua missione è:
Presieduto da Francesca Rossi e Christina Montgomery, il Consiglio sponsorizza flussi di lavoro che offrono leadership di pensiero, promozione delle politiche, istruzione e formazione sull'etica dell'AI per promuovere l'innovazione responsabile, il progresso e il miglioramento dell'AI e delle tecnologie emergenti. Valuta anche i casi d'uso che sollevano potenziali preoccupazioni etiche.
Il Consiglio è un meccanismo fondamentale attraverso il quale IBM ritiene l'azienda e tutti i membri della famiglia IBM responsabili dei valori e degli impegni per lo sviluppo etico e l'implementazione della tecnologia.
Scopri di più sull'impatto etico nell'IBM Impact Report del 2023
Dai un'occhiata al framework di governance etica dell'AI di IBM
Scopri di più su Francesca
Scopri di più su Christina
IBM sostiene politiche che bilanciano l'innovazione con la responsabilità e la fiducia, per contribuire a creare un futuro migliore per tutti.
Le cinque best practice di IBM per includere e bilanciare supervisione umana, libertà di azione e responsabilità per le decisioni in tutto il ciclo di vita dell'AI.
Raccomandazioni di IBM ai decisori politici per attenuare i danni dei deepfake.
Raccomandazioni di IBM ai responsabili politici per preservare un ecosistema di innovazione aperto per l'IA.
Questi standard possono informare i revisori e gli sviluppatori dell'AI su quali caratteristiche protette devono essere considerate negli audit dei bias e su come tradurle nei dati necessari per condurre queste valutazioni.
IBM raccomanda ai responsabili politici di prendere in considerazione due categorie distinte di modelli di business basati sui dati e di adattare gli obblighi normativi proporzionati al rischio che rappresentano per i consumatori.
I responsabili politici devono comprendere i rischi per la privacy legati alle neurotecnologie, il loro funzionamento e i dati richiesti per il loro utilizzo.
Cinque priorità per rafforzare l'adozione di strategie di test, valutazione e mitigazione per ridurre al minimo i bias nei sistemi AI.
Le aziende dovrebbero utilizzare un quadro di politiche di governance dell'AI basato sul rischio e politiche mirate per sviluppare e gestire un'AI affidabile.
La dott.ssa Heather Domin, Global Leader for Responsible AI Initiatives di IBM, illustra come la regolamentazione, la collaborazione e la domanda di competenze stiano plasmando il panorama della governance dell'AI
Gli esperti di IBM e dell'Università di Notre Dame illustrano le raccomandazioni per ottenere il miglior ROI dagli investimenti nell'etica dell'AI.
Con il contributo di IBM, il nuovo rapporto di Partnership on AI esplora le garanzie per i modelli di open foundation.
Redatta con la collaborazione di IBM, la nuova roadmap politica di Data & Trust Alliance fornisce raccomandazioni per bilanciare innovazione e sicurezza in campo AI.
Al The Futurist Summit, Christina Montgomery, Chief Privacy and Trust Officer di IBM, e Rebecca Finley, CEO di Partnership for AI, discutono della relazione fondamentale tra innovazione aperta e sicurezza dell'AI.
Con il supporto del Notre Dame-IBM Tech Ethics Lab, nel 2024 verranno avviati dieci progetti di ricerca.
Con il supporto del Notre Dame-IBM Technology Ethics Lab, il Pulitzer Center lancia l'iniziativa di formazione globale AI Spotlight Series.
IBM e Meta lanciano l'AI Alliance in collaborazione con oltre 50 membri fondatori e collaboratori a livello globale.
In collaborazione con IBM, il World Economic Forum offre tre documenti informativi per guidare la trasformazione responsabile con l'AI.