Was ist KI-Ethik?
KI-Ethik dient Datenwissenschaftlern und Forschern als Leitfaden, KI-Systeme auf ethische Art und Weise zum Vorteil der Gesellschaft als Ganzes zu entwickeln
IBM Newsletter abonnieren
kreisförmige Aurora
Was ist KI-Ethik?

Dieser Artikel zielt darauf ab, einen umfassenden Überblick über die KI-Ethik in der heutigen Geschäftswelt zu bieten. Weitere Informationen zum Standpunkt von IBM finden Sie auf unserer Seite zur KI-Ethik hier.

Ethik ist eine Reihe moralischer Prinzipien, die uns helfen, zwischen Recht und Unrecht zu unterscheiden. Bei der KI-Ethik handelt es sich um eine Reihe von Richtlinien, die uns einen Leitfaden bei der Entwicklung und der Nutzung der Ergebnisse künstlicher Intelligenz an die Hand geben. Der Mensch ist mit allen möglichen kognitiven Voreingenommenheiten ausgestattet, wie z. B. dem Aktualitäts- und Bestätigungs-Bias, und diese inhärenten Verzerrungen zeigen sich in unserem Verhalten – und damit auch in unseren Daten. Da Daten die Grundlage für alle Algorithmen des maschinellen Lernens sind, ist es für uns wichtig, Experimente und Algorithmen entsprechend zu strukturieren, da künstliche Intelligenz das Potenzial hat, diese menschlichen Voreingenommenheiten in einem noch nie dagewesenen Maße zu verstärken und zu vergrößern.

Mit dem Aufkommen von Big Data haben sich Unternehmen verstärkt auf die Automatisierung und datengesteuerte Entscheidungsfindung in ihren Organisationen konzentriert. Während die Absicht meist, wenn auch nicht immer, darin besteht, die Geschäftsergebnisse zu verbessern, sind Unternehmen in einigen ihrer KI-Anwendungen mit unvorhergesehenen Konsequenzen konfrontiert, insbesondere aufgrund schlechten Forschungsdesigns im Vorfeld und mit Vorurteilen behafteten Datensätzen.

Mit dem Bekanntwerden unfairer Ergebnisse sind vor allem in Forschungs- und in der Datenwissenschafts-Communities neue Leitlinien entstanden, die sich mit den ethischen Aspekten der KI befassen. Führende Unternehmen im Bereich der KI haben ebenfalls ein berechtigtes Interesse an der Gestaltung dieser Richtlinien gezeigt, da sie selbst einige der Konsequenzen zu spüren bekommen haben, die sich aus der Nichteinhaltung ethischer Normen bei ihren Produkten ergeben. Mangel an Sorgfalt in diesem Bereich kann zu Reputations- sowie zu regulatorischen und rechtlichen Problemen führen, die hohe Geldstrafen nach sich ziehen können. Wie bei allen technologischen Fortschritten tendiert Innovation dazu, die staatliche Regulierung in neuen, aufstrebenden Bereichen zu überholen. Mit der Entwicklung des entsprechenden Fachwissens in Regierung, Behörden und Verwaltung können wir mit mehr KI-Richtlinien rechnen, deren Einhaltung für Unternehmen verpflichtend sind, um Verletzungen der Menschenrechte und der bürgerlichen Freiheiten zu vermeiden.

watsonx erkunden

Vervielfachen Sie die Leistung von KI für Ihr Unternehmen mit der KI- und Datenplattform der nächsten Generation von IBM

KI-Ethik heute voranbringen

Lesen Sie mehr darüber, wie Sie die ethischen Prinzipien der KI in die Praxis umsetzen können. (326 KB)

Festlegung von Grundsätzen für eine KI-Ethik

Während sich Regeln und Protokolle für den Einsatz von KI im Entwicklungsstadium befinden, stützt sich die akademische Gemeinschaft auf den Belmont-Bericht (Link befindet sich außerhalb von IBM) (PDF, 124 KB) als Leitfaden für die Ethik in der experimentellen Forschung und der Entwicklung von Algorithmen. Der Belmont-Bericht enthält drei wesentliche Prinzipien, die als Leitfaden für die Entwicklung von Experimenten und Algorithmen dienen:

  1. Respekt für Personen: Dieses Prinzip erkennt die Autonomie des Einzelnen an und formuliert die Erwartung an die Forscher, Personen mit eingeschränkter Autonomie, die auf eine Vielzahl von Umständen wie z. B. Krankheit, geistige Behinderung oder Altersbeschränkungen zurückzuführen sein kann, zu schützen. Dieses Prinzip berührt in erster Linie den Gedanken der Einwilligung. Einzelpersonen sollten sich der potenziellen Risiken und Vorteile eines Experiments bewusst sein, an dem sie teilnehmen, und sollten die Möglichkeit haben, sich vor und während des Experiments jederzeit für ihre Teilnahme oder ihr Ausscheiden entscheiden zu können.
  2. Gutes tun: Dieses Prinzip lehnt sich an einen ethischen Grundsatz aus dem Gesundheitswesen an, wo Ärzte einen Eid ablegen, „keinen Schaden zuzufügen". Diese Idee kann leicht auf künstliche Intelligenz angewendet werden, wo Algorithmen trotz der Absicht, Gutes zu tun und ein bestimmtes System zu verbessern, bestehende Vorurteile in Bezug auf Rasse, Geschlecht, politische Neigungen usw. noch verstärken können.
  3. Gerechtigkeit: Dieses Prinzip befasst sich mit Fragen wie Fairness und Gleichheit. Wer sollte von den Vorteilen profitieren, die sich aus Experimenten und maschinellem Lernen ergeben? Der Belmont-Bericht bietet fünf Möglichkeiten, die Belastungen und Vorteile fair zu verteilen:
    • Gleicher Anteil
    • Individueller Bedarf
    • Individueller Einsatz
    • Gesellschaftlicher Beitrag
    • Verdienst
Zugehörige Links

IBM KI-Ethik

Hauptanliegen von KI heute

Es gibt eine Reihe von Themen, die heute im Mittelpunkt ethischer Diskussionen rund um KI-Technologien stehen. Einige dieser Themen sind:

 

Technologische Singularität


Während dieses Thema in der Öffentlichkeit viel Aufmerksamkeit erregt, zeigen sich viele Forscher angesichts der Vorstellung, dass KI die menschliche Intelligenz in der nahen oder unmittelbaren Zukunft übertreffen könnte, unbesorgt. Dies wird auch als Superintelligenz bezeichnet, unter der der Philosoph Nick Bostrum einen Intellekt versteht, „der die Leistungsfähigkeit der besten menschlichen Gehirne in praktisch allen Bereichen, einschließlich wissenschaftlicher Kreativität, allgemeiner Weisheit und sozialer Fähigkeiten, bei weitem übertrifft“. Obwohl die Entwicklung von starker KI und Superintelligenz in unserer Gesellschaft nicht unmittelbar bevorsteht, wirft sie im Hinblick auf den Einsatz autonomer Systeme, wie z. B. selbstfahrender Autos, einige interessante Fragen auf. Es ist unrealistisch zu glauben, dass ein selbstfahrendes Auto niemals in einen Unfall verwickelt sein wird – aber wer ist bei einem Unfall verantwortlich und haftbar? Ist es dennoch sinnvoll, vollständig autonome Fahrzeuge zu entwickeln, oder sollten wir den Einsatz dieser Technologie auf halbautonome Fahrzeuge, die einem menschlichen Fahrer lediglich sicheres Fahren ermöglichen, beschränken? Das letzte Wort zu diesem Thema ist noch lange nicht gesprochen und im Zuge der Entwicklung neuer, innovativer KI-Technologien kommen derartige ethische Debatten immer wieder auf.

 

Auswirkungen von KI auf Arbeitsplätze


Während sich ein Großteil der öffentlichen Wahrnehmung rund um die künstliche Intelligenz um den Verlust von Arbeitsplätzen dreht, sollte diese Sorge wahrscheinlich anders formuliert werden. Mit jeder bahnbrechenden, neuen Technologie verschiebt sich die Marktnachfrage nach bestimmten Tätigkeitsbereichen. In der Automobilindustrie beispielsweise konzentrieren sich viele Hersteller, wie etwa GM, auf die Produktion von Elektrofahrzeugen, um grüne Initiativen zu unterstützen. Die Energiewirtschaft löst sich dadurch jedoch nicht einfach in Luft auf. Es findet lediglich eine Umstellung von brennstoff- auf elektrobasierte Technologien statt. Künstliche Intelligenz sollte in ähnlicher Weise betrachtet werden, wo künstliche Intelligenz die Nachfrage von Arbeitsplätzen in andere Bereiche verlagern wird. Die Nachfrage nach Personal für das Management von KI-Systemen wird angesichts steigender und sich ständig verändernder Datenmengen zweifellos steigen. In den Branchen, die am ehesten von der Verlagerung der Arbeitsplatznachfrage betroffen sein werden, wie z. B. dem Kundendienst, werden auch weiterhin Ressourcen benötigt werden, um komplexere Kundenprobleme zu lösen. Die größte Herausforderung im Zusammenhang mit künstlicher Intelligenz und ihren Auswirkungen auf den Arbeitsmarkt wird darin bestehen, die Menschen beim Umstieg auf neue, gefragte Tätigkeiten zu unterstützen.

 

Schutz der Privatsphäre


Der Schutz der Privatsphäre wird häufig im Zusammenhang mit Datenschutz und Datensicherheit diskutiert. Diese Belange haben dazu geführt, dass politische Entscheidungsträger in den letzten Jahren weitere Schritte zum Schutz der Privatsphäre unternommen haben. So wurde beispielsweise 2016 die DSGVO-Gesetzgebung geschaffen, um die personenbezogenen Daten von Personen in der Europäischen Union und dem Europäischen Wirtschaftsraum zu schützen und dem Einzelnen mehr Kontrolle über seine Daten zu geben. In den Vereinigten Staaten haben einzelne Bundesstaaten Richtlinien entwickelt, wie z. B. das in Kalifornien eingeführte Gesetz zum Schutz der Privatsphäre von Verbrauchern (California Consumer Privacy Act, CCPA), das Unternehmen dazu verpflichtet, Verbraucher über die Sammlung ihrer Daten zu informieren. Dieses und ähnliche Gesetze haben Unternehmen dazu gezwungen, die Art und Weise, wie sie personenbezogene Daten speichern und verwenden, neu zu überdenken. Infolgedessen haben Investitionen in die Sicherheit für Unternehmen zunehmend Priorität, da Unternehmen natürlich bestrebt sind, Schwachstellen und Möglichkeiten für Überwachung, Hackerangriffe und Cyberattacken zu beseitigen.

 

Vorurteile und Diskriminierung


Fälle von Vorurteilen und Diskriminierung bei einer Reihe von intelligenten Systemen haben viele ethische Fragen in Bezug auf den Einsatz von künstlicher Intelligenz aufgeworfen. Wie können wir uns gegen Vorurteile und Diskriminierung schützen, wenn die Trainingsdaten selbst mit Vorurteilen behaftet sind? Auch wenn Unternehmen mit ihren Automatisierungsbemühungen in der Regel wohlmeinende Absichten verfolgen, weist Reuters (Link befindet sich außerhalb von ibm.com) auf einige der unvorhergesehenen Folgen der Nutzung von KI im Einstellungsprozess hin. In seinem Bemühen, einen Prozess zu automatisieren und zu vereinfachen, diskriminierte Amazon unbeabsichtigt Bewerber für technische Positionen aufgrund ihres Geschlechts und musste das Projekt schließlich aufgeben. Während solche Ereignisse an die Öffentlichkeit dringen, hat gleichzeitig die Harvard Business Review (Link befindet sich außerhalb von ibm.com) weitere wichtige Fragen zum Einsatz von KI im Einstellungsverfahren aufgeworfen, z. B. welche Daten man bei der Bewertung eines Bewerbers für eine Stelle verwenden können sollte.

Vorurteile und Diskriminierung sind außerdem nicht nur auf den Personalbereich beschränkt, sondern können in zahlreichen anderen Anwendungen auftreten, von Gesichtserkennungssoftware bis hin zu Algorithmen für soziale Medien.

In dem Maße, in dem sich Unternehmen der Risiken von KI bewusster werden, beteiligen sie sich auch aktiver an der Diskussion um Ethik und Werte von KI. Letztes Jahr teilte IBM-CEO Arvind Krishna beispielsweise mit, dass IBM seine Allzweck-Gesichtserkennungs- und -analyseprodukte eingestellt hat. In diesem Zusammenhang betonte er: „IBM lehnt die Verwendung jeglicher Technologie, einschließlich der von anderen Anbietern angebotenen Gesichtserkennungstechnologie, für die Massenüberwachung, Profilerstellung nach ethnischen Gesichtspunkten, die Verletzung grundlegender Menschenrechte und Freiheiten oder für andere Zwecke, die nicht mit unseren Werten und Grundsätzen des Vertrauens und der Transparenz vereinbar sind, entschieden ab und wird dies auch nicht dulden.“

Rechenschaftspflicht


Da keine einschlägigen Gesetze zur Regulierung von KI-Praktiken existieren, fehlt es auch an einem wirksamen Durchsetzungsmechanismus, der eine ethische Nutzung von KI in der Praxis sicherstellt. Gegenwärtig beschränken sich die Anreize für Unternehmen, sich an Prinzipien der ethischen KI-Nutzung zu halten, auf die Vermeidung möglicher negativer Auswirkungen einer unethischen KI-Gestaltung auf das Geschäftsergebnis. Um diese Lücke zu schließen, sind in Zusammenarbeit von Ethikern und Forschern ethische Rahmenwerke entstanden, die die Entwicklung und Verbreitung von KI-Modellen in unserer Gesellschaft regeln sollen. Momentan stellen diese jedoch nur eine Orientierungshilfe dar. Einige Forschungsarbeiten (Link befindet sich außerhalb von ibm.com) (PDF, 1 MB) haben gezeigt, dass die Kombination von verteilter Verantwortung und mangelnder Voraussicht möglicher Folgen nicht dazu geeignet ist, Schaden von der Gesellschaft abzuwenden.

Wie lässt sich eine KI-Ethik etablieren?

Da künstliche Intelligenz keine moralischen Maschinen hervorgebracht hat, haben Teams begonnen, Frameworks und Konzepte zusammenzustellen, um auf einige der aktuellen Bedenken im Bereich Ethik zu reagieren und so die künftige Arbeit auf diesem Gebiet zu gestalten. Während diese Richtlinien jeden Tag mehr an Struktur gewinnen, besteht bereits ein gewisser Konsens darüber, die folgenden Elemente zu integrieren:

  • Governance: Unternehmen können ihre bestehende Organisationsstruktur nutzen, um ethische KI zu verwalten. Wenn ein Unternehmen Daten sammelt, hat es wahrscheinlich bereits ein System zur Governance eingerichtet, um die Datenstandardisierung und Qualitätssicherung von Daten zu erleichtern. Interne Regulierungs- und Rechtsteams arbeiten wahrscheinlich bereits mit Governance-Teams zusammen, um die Einhaltung der gesetzlichen Vorschriften in Zusammenarbeit mit Regierungsbehörden sicherzustellen. Eine Erweiterung des Aufgabenbereichs dieses Teams um das Thema einer ethischen KI ist lediglich eine natürliche Erweiterung seiner aktuellen Prioritäten. Dieses Team kann weiterhin das Bewusstsein in der Organisation schärfen und Anreize für die Stakeholder schaffen, im Einklang mit den Unternehmenswerten und ethischen Normen zu handeln.  
  • Erklärbarkeit: Modelle des maschinellen Lernens, insbesondere Deep-Learning-Modelle, werden häufig als „Black-Box-Modelle“ bezeichnet, da in der Regel unklar ist, wie ein Modell zu einer bestimmten Entscheidung gelangt. Laut dieser Studie (Link befindet sich außerhalb von ibm.com) (PDF, 1,9 MB) wird mittels Erklärbarkeit versucht, diese Mehrdeutigkeit rund um die Modellerstellung und -ergebnisse zu beseitigen, indem eine „menschlich verständliche Erklärung, die die von der Maschine verwendete Logik beschreibt“ generiert wird.  Diese Art von Transparenz ist wichtig, um Vertrauen in KI-Systeme zu schaffen und sicherzustellen, dass der Einzelne versteht, warum ein Modell zu einem bestimmten Entscheidungspunkt gelangt. Wenn wir das Warum besser verstehen, sind wir besser dafür gerüstet, die sich aus der KI ergebenden Risiken wie Vorurteile und Diskriminierung zu vermeiden.  

Ethische KI zu erreichen ist zweifellos wichtig für den Erfolg der KI an sich. Es ist jedoch wichtig zu beachten, dass KI auch über ein enormes Potenzial verfügt, die Gesellschaft zum Guten zu verändern. Dies zeigt sich bereits bei der Integration von KI in Bereiche des Gesundheitswesens, wie z. B. die Radiologie. Mit dieser Diskussion über Ethik in der KI soll sichergestellt werden, dass wir bei unserem Versuch, diese Technologie zum Guten zu nutzen, bei ihrer Entwicklung auch ihr Schadenspotenzial angemessen bewerten.

Organisationen für ethische KI

Da ethische Normen nicht das Hauptanliegen von Dateningenieuren und Datenwissenschaftlern in der Privatwirtschaft sind, ist eine Reihe von Organisationen entstanden, die sich zum Ziel gesetzt haben, ethisches Verhalten im Bereich der künstlichen Intelligenz zu fördern. Für diejenigen, die an weiteren Informationen interessiert sind, bieten die folgenden Organisationen und Projekte Ressourcen zur Implementierung ethischer KI:

  • AlgorithmWatch: Diese gemeinnützige Organisation konzentriert sich auf den Einsatz von erklärbaren und nachvollziehbaren Algorithmen und Entscheidungsprozessen in KI-Programmen. Klicken Sie hier (Link befindet sich außerhalb von ibm.com), um mehr zu erfahren.
  • AI Now Institute: Diese gemeinnützige Organisation an der New York University erforscht die sozialen Auswirkungen künstlicher Intelligenz. Klicken Sie hier (Link befindet sich außerhalb von ibm.com), um mehr zu erfahren.
  • DARPA: Die Defense Advanced Research Projects Agency (Link befindet sich außerhalb von ibm.com) des US-Verteidigungsministeriums konzentriert sich auf die Förderung von erklärbarer KI und KI-Forschung.
  • CHAI: Das Center for Human-Compatible Artificial Intelligence (Link befindet sich außerhalb von ibm.com) ist eine Zusammenarbeit verschiedener Institute und Universitäten zur Förderung vertrauenswürdiger KI und nachweislich nutzbringender Systeme.
  • NASCAI: Die National Security Commission on Artificial Intelligence (Link befindet sich außerhalb von ibm.com) ist eine unabhängige Kommission „die die Methoden und Mittel prüft, die notwendig sind, um die Entwicklung von künstlicher Intelligenz, maschinellem Lernen und damit verbundenen Technologien voranzutreiben, um die nationalen Sicherheits- und Verteidigungsbedürfnisse der Vereinigten Staaten umfassend zu erfüllen.“
IBMs Standpunkt zur KI-Ethik

IBM hat auch seinen eigenen Standpunkt zur KI-Ethik formuliert, der auf den Prinzipien des Vertrauens und der Transparenz aufbaut und Kunden dabei hilft, zu verstehen, was die Werte von IBM in der Diskussion über KI sind. IBM hat drei Kernprinzipien, die seine Herangehensweise an Daten und KI bestimmen:

  1. Der Zweck von KI ist, die menschliche Intelligenz zu erweitern. Das bedeutet, dass es nicht unser Ziel ist, menschliche Intelligenz durch KI zu ersetzen, sondern sie zu unterstützen. Da jede neue technologische Innovation Veränderungen im Angebot und in der Nachfrage bestimmter Stellen mit sich bringt, verpflichtet sich IBM, Arbeitnehmer bei diesem Übergang zu unterstützen, indem es in globale Initiativen zur Förderung der Qualifizierung rund um diese Technologie investiert.
  2. Daten und Erkenntnisse aus diesen Daten sind Eigentum ihres Urhebers. Kunden von IBM können sich darauf verlassen, dass sie, und sie allein, Eigentümer ihrer Daten sind. IBM hat Regierungsstellen und Behörden keinen Zugriff auf Kundendaten für Überwachungsprogramme gewährt und wird dies auch in Zukunft nicht tun. Das Unternehmen verpflichtet sich weiterhin, die Privatsphäre seiner Kunden zu schützen.
  3. KI-Systeme müssen transparent und erklärbar sein. IBM vertritt die Ansicht, dass Technologieunternehmen Klarheit darüber schaffen müssen, wer ihre KI-Systeme trainiert, welche Daten für dieses Training verwendet wurden und – dies ist der wichtigste Punkt – was in die Empfehlungen ihrer Algorithmen eingeflossen ist.

IBM hat außerdem eine Reihe von Schwerpunktbereichen entwickelt, um die verantwortungsvolle Einführung von KI-Technologien zu steuern. Dazu gehören:

  • Erklärbarkeit: Ein KI-System sollte – entsprechend der Vielzahl von Interessengruppen und der Vielzahl von Zielen – transparent sein, und insbesondere darüber, was in die Empfehlungen seines Algorithmus eingeflossen ist.
  • Fairness: Dies bezieht sich auf die gerechte Behandlung von Einzelpersonen oder Gruppen von Einzelpersonen durch ein KI-System. Wenn sie richtig kalibriert ist, kann KI den Menschen dabei helfen, gerechtere Entscheidungen zu treffen, menschlichen Vorurteilen entgegenzuwirken und Inklusivität zu fördern.
  • Robustheit: KI-gestützte Systeme müssen aktiv vor Angriffen geschützt werden, um Sicherheitsrisiken zu minimieren und Vertrauen in die Ergebnisse des Systems zu schaffen.
  • Transparenz: Um das Vertrauen in die KI zu stärken, müssen Nutzer in der Lage sein zu sehen, wie dieser Dienst funktioniert, seine Funktionalität zu bewerten und seine Stärken und Einschränkungen zu verstehen.
  • Schutz der Privatsphäre: KI-Systeme müssen die Privatsphäre und die Datenrechte der Verbraucher priorisieren und schützen und den Nutzern Gewissheit darüber geben, wie ihre personenbezogenen Daten verwendet und geschützt werden.

Diese Prinzipien und Schwerpunkte bilden die Grundlage unseres Ansatzes zur KI-Ethik. Um mehr über die Standpunkte von IBM zu Ethik und künstlicher Intelligenz zu erfahren, lesen Sie mehr hier.

 

KI-Ethik und IBM

IBM ist bestrebt sicherzustellen, dass seine Produkte unter Berücksichtigung ethischer Richtlinien und Prinzipien entwickelt und eingesetzt werden. Eines der Produkte, das IBM seinen Kunden anbietet, ist IBM Watson Studio, das die Aufsicht über und die Einhaltung von ethischen KI-Normen verbessert.

IBM Watson Studio auf IBM Cloud Pak for Data unterstützt die Überwachung und Verwaltung von Modellen mit dem Ziel einer vertrauenswürdigen KI. Ein Unternehmen kann so KI-Modelle in der Produktion visualisieren und verfolgen, Modelle validieren und testen, um regulatorische Risiken zu mindern, und die Transparenz des KI-Lebenszyklus erhöhen. Melden Sie sich für eine IBMid an und erstellen Sie noch heute Ihr kostenloses IBM Cloud-Konto.

Mehr zum Standpunkt von IBM zum Thema Ethik in der künstlichen Intelligenz, erfahren Sie hier.

 

Weiterführende Lösungen
IBM Watson Studio

Erstellen Sie KI-Modelle, führen Sie sie aus und verwalten Sie sie. Bereiten Sie Daten vor und erstellen Sie Modelle in jeder beliebigen Cloud mit Open-Source-Code oder visueller Modellierung. Erstellen Sie Prognosen und optimieren Sie Ihre Ergebnisse.

Watson Studio erkunden
IBM Cloud Pak® for Data

IBM Cloud Pak for Data ist eine offene, erweiterbare Datenplattform, die eine Data Fabric bereitstellt und so alle Daten in jeder Cloud für KI und Analysen verfügbar macht.

IBM Cloud Pak® for Data erkunden
IBMs KI-Ethik

IBMs interdisziplinärer, mehrdimensionaler Ansatz für vertrauenswürdige KI

KI-Ethik von IBM erkunden
Machen Sie den nächsten Schritt

IBM ist bestrebt sicherzustellen, dass seine Produkte unter Berücksichtigung ethischer Richtlinien und Prinzipien entwickelt und eingesetzt werden. Eines der Produkte, das IBM seinen Kunden anbietet, ist IBM Watson Studio, das die Aufsicht über und die Einhaltung von ethischen KI-Normen verbessert. IBM Watson Studio auf IBM Cloud Pak for Data unterstützt die Überwachung und Verwaltung von Modellen mit dem Ziel einer vertrauenswürdigen KI. Ein Unternehmen kann so KI-Modelle in der Produktion visualisieren und verfolgen, Modelle validieren und testen, um regulatorische Risiken zu mindern, und die Transparenz des KI-Lebenszyklus erhöhen.

IBM Watson Studio erkunden