Dieser Artikel zielt darauf ab, einen umfassenden Überblick über die KI-Ethik in der heutigen Geschäftswelt zu bieten. Weitere Informationen zum Standpunkt von IBM finden Sie auf unserer Seite zur KI-Ethik hier.
Ethik ist eine Reihe moralischer Prinzipien, die uns helfen, zwischen Recht und Unrecht zu unterscheiden. Bei der KI-Ethik handelt es sich um eine Reihe von Richtlinien, die uns einen Leitfaden bei der Entwicklung und der Nutzung der Ergebnisse künstlicher Intelligenz an die Hand geben. Der Mensch ist mit allen möglichen kognitiven Voreingenommenheiten ausgestattet, wie z. B. dem Aktualitäts- und Bestätigungs-Bias, und diese inhärenten Verzerrungen zeigen sich in unserem Verhalten – und damit auch in unseren Daten. Da Daten die Grundlage für alle Algorithmen des maschinellen Lernens sind, ist es für uns wichtig, Experimente und Algorithmen entsprechend zu strukturieren, da künstliche Intelligenz das Potenzial hat, diese menschlichen Voreingenommenheiten in einem noch nie dagewesenen Maße zu verstärken und zu vergrößern.
Mit dem Aufkommen von Big Data haben sich Unternehmen verstärkt auf die Automatisierung und datengesteuerte Entscheidungsfindung in ihren Organisationen konzentriert. Während die Absicht meist, wenn auch nicht immer, darin besteht, die Geschäftsergebnisse zu verbessern, sind Unternehmen in einigen ihrer KI-Anwendungen mit unvorhergesehenen Konsequenzen konfrontiert, insbesondere aufgrund schlechten Forschungsdesigns im Vorfeld und mit Vorurteilen behafteten Datensätzen.
Mit dem Bekanntwerden unfairer Ergebnisse sind vor allem in Forschungs- und in der Datenwissenschafts-Communities neue Leitlinien entstanden, die sich mit den ethischen Aspekten der KI befassen. Führende Unternehmen im Bereich der KI haben ebenfalls ein berechtigtes Interesse an der Gestaltung dieser Richtlinien gezeigt, da sie selbst einige der Konsequenzen zu spüren bekommen haben, die sich aus der Nichteinhaltung ethischer Normen bei ihren Produkten ergeben. Mangel an Sorgfalt in diesem Bereich kann zu Reputations- sowie zu regulatorischen und rechtlichen Problemen führen, die hohe Geldstrafen nach sich ziehen können. Wie bei allen technologischen Fortschritten tendiert Innovation dazu, die staatliche Regulierung in neuen, aufstrebenden Bereichen zu überholen. Mit der Entwicklung des entsprechenden Fachwissens in Regierung, Behörden und Verwaltung können wir mit mehr KI-Richtlinien rechnen, deren Einhaltung für Unternehmen verpflichtend sind, um Verletzungen der Menschenrechte und der bürgerlichen Freiheiten zu vermeiden.
Vervielfachen Sie die Leistung von KI für Ihr Unternehmen mit der KI- und Datenplattform der nächsten Generation von IBM
Lesen Sie mehr darüber, wie Sie die ethischen Prinzipien der KI in die Praxis umsetzen können. (326 KB)
Während sich Regeln und Protokolle für den Einsatz von KI im Entwicklungsstadium befinden, stützt sich die akademische Gemeinschaft auf den Belmont-Bericht (Link befindet sich außerhalb von IBM) (PDF, 124 KB) als Leitfaden für die Ethik in der experimentellen Forschung und der Entwicklung von Algorithmen. Der Belmont-Bericht enthält drei wesentliche Prinzipien, die als Leitfaden für die Entwicklung von Experimenten und Algorithmen dienen:
IBM KI-Ethik
Es gibt eine Reihe von Themen, die heute im Mittelpunkt ethischer Diskussionen rund um KI-Technologien stehen. Einige dieser Themen sind:
Während dieses Thema in der Öffentlichkeit viel Aufmerksamkeit erregt, zeigen sich viele Forscher angesichts der Vorstellung, dass KI die menschliche Intelligenz in der nahen oder unmittelbaren Zukunft übertreffen könnte, unbesorgt. Dies wird auch als Superintelligenz bezeichnet, unter der der Philosoph Nick Bostrum einen Intellekt versteht, „der die Leistungsfähigkeit der besten menschlichen Gehirne in praktisch allen Bereichen, einschließlich wissenschaftlicher Kreativität, allgemeiner Weisheit und sozialer Fähigkeiten, bei weitem übertrifft“. Obwohl die Entwicklung von starker KI und Superintelligenz in unserer Gesellschaft nicht unmittelbar bevorsteht, wirft sie im Hinblick auf den Einsatz autonomer Systeme, wie z. B. selbstfahrender Autos, einige interessante Fragen auf. Es ist unrealistisch zu glauben, dass ein selbstfahrendes Auto niemals in einen Unfall verwickelt sein wird – aber wer ist bei einem Unfall verantwortlich und haftbar? Ist es dennoch sinnvoll, vollständig autonome Fahrzeuge zu entwickeln, oder sollten wir den Einsatz dieser Technologie auf halbautonome Fahrzeuge, die einem menschlichen Fahrer lediglich sicheres Fahren ermöglichen, beschränken? Das letzte Wort zu diesem Thema ist noch lange nicht gesprochen und im Zuge der Entwicklung neuer, innovativer KI-Technologien kommen derartige ethische Debatten immer wieder auf.
Während sich ein Großteil der öffentlichen Wahrnehmung rund um die künstliche Intelligenz um den Verlust von Arbeitsplätzen dreht, sollte diese Sorge wahrscheinlich anders formuliert werden. Mit jeder bahnbrechenden, neuen Technologie verschiebt sich die Marktnachfrage nach bestimmten Tätigkeitsbereichen. In der Automobilindustrie beispielsweise konzentrieren sich viele Hersteller, wie etwa GM, auf die Produktion von Elektrofahrzeugen, um grüne Initiativen zu unterstützen. Die Energiewirtschaft löst sich dadurch jedoch nicht einfach in Luft auf. Es findet lediglich eine Umstellung von brennstoff- auf elektrobasierte Technologien statt. Künstliche Intelligenz sollte in ähnlicher Weise betrachtet werden, wo künstliche Intelligenz die Nachfrage von Arbeitsplätzen in andere Bereiche verlagern wird. Die Nachfrage nach Personal für das Management von KI-Systemen wird angesichts steigender und sich ständig verändernder Datenmengen zweifellos steigen. In den Branchen, die am ehesten von der Verlagerung der Arbeitsplatznachfrage betroffen sein werden, wie z. B. dem Kundendienst, werden auch weiterhin Ressourcen benötigt werden, um komplexere Kundenprobleme zu lösen. Die größte Herausforderung im Zusammenhang mit künstlicher Intelligenz und ihren Auswirkungen auf den Arbeitsmarkt wird darin bestehen, die Menschen beim Umstieg auf neue, gefragte Tätigkeiten zu unterstützen.
Der Schutz der Privatsphäre wird häufig im Zusammenhang mit Datenschutz und Datensicherheit diskutiert. Diese Belange haben dazu geführt, dass politische Entscheidungsträger in den letzten Jahren weitere Schritte zum Schutz der Privatsphäre unternommen haben. So wurde beispielsweise 2016 die DSGVO-Gesetzgebung geschaffen, um die personenbezogenen Daten von Personen in der Europäischen Union und dem Europäischen Wirtschaftsraum zu schützen und dem Einzelnen mehr Kontrolle über seine Daten zu geben. In den Vereinigten Staaten haben einzelne Bundesstaaten Richtlinien entwickelt, wie z. B. das in Kalifornien eingeführte Gesetz zum Schutz der Privatsphäre von Verbrauchern (California Consumer Privacy Act, CCPA), das Unternehmen dazu verpflichtet, Verbraucher über die Sammlung ihrer Daten zu informieren. Dieses und ähnliche Gesetze haben Unternehmen dazu gezwungen, die Art und Weise, wie sie personenbezogene Daten speichern und verwenden, neu zu überdenken. Infolgedessen haben Investitionen in die Sicherheit für Unternehmen zunehmend Priorität, da Unternehmen natürlich bestrebt sind, Schwachstellen und Möglichkeiten für Überwachung, Hackerangriffe und Cyberattacken zu beseitigen.
Fälle von Vorurteilen und Diskriminierung bei einer Reihe von intelligenten Systemen haben viele ethische Fragen in Bezug auf den Einsatz von künstlicher Intelligenz aufgeworfen. Wie können wir uns gegen Vorurteile und Diskriminierung schützen, wenn die Trainingsdaten selbst mit Vorurteilen behaftet sind? Auch wenn Unternehmen mit ihren Automatisierungsbemühungen in der Regel wohlmeinende Absichten verfolgen, weist Reuters (Link befindet sich außerhalb von ibm.com) auf einige der unvorhergesehenen Folgen der Nutzung von KI im Einstellungsprozess hin. In seinem Bemühen, einen Prozess zu automatisieren und zu vereinfachen, diskriminierte Amazon unbeabsichtigt Bewerber für technische Positionen aufgrund ihres Geschlechts und musste das Projekt schließlich aufgeben. Während solche Ereignisse an die Öffentlichkeit dringen, hat gleichzeitig die Harvard Business Review (Link befindet sich außerhalb von ibm.com) weitere wichtige Fragen zum Einsatz von KI im Einstellungsverfahren aufgeworfen, z. B. welche Daten man bei der Bewertung eines Bewerbers für eine Stelle verwenden können sollte.
Vorurteile und Diskriminierung sind außerdem nicht nur auf den Personalbereich beschränkt, sondern können in zahlreichen anderen Anwendungen auftreten, von Gesichtserkennungssoftware bis hin zu Algorithmen für soziale Medien.
In dem Maße, in dem sich Unternehmen der Risiken von KI bewusster werden, beteiligen sie sich auch aktiver an der Diskussion um Ethik und Werte von KI. Letztes Jahr teilte IBM-CEO Arvind Krishna beispielsweise mit, dass IBM seine Allzweck-Gesichtserkennungs- und -analyseprodukte eingestellt hat. In diesem Zusammenhang betonte er: „IBM lehnt die Verwendung jeglicher Technologie, einschließlich der von anderen Anbietern angebotenen Gesichtserkennungstechnologie, für die Massenüberwachung, Profilerstellung nach ethnischen Gesichtspunkten, die Verletzung grundlegender Menschenrechte und Freiheiten oder für andere Zwecke, die nicht mit unseren Werten und Grundsätzen des Vertrauens und der Transparenz vereinbar sind, entschieden ab und wird dies auch nicht dulden.“
Da keine einschlägigen Gesetze zur Regulierung von KI-Praktiken existieren, fehlt es auch an einem wirksamen Durchsetzungsmechanismus, der eine ethische Nutzung von KI in der Praxis sicherstellt. Gegenwärtig beschränken sich die Anreize für Unternehmen, sich an Prinzipien der ethischen KI-Nutzung zu halten, auf die Vermeidung möglicher negativer Auswirkungen einer unethischen KI-Gestaltung auf das Geschäftsergebnis. Um diese Lücke zu schließen, sind in Zusammenarbeit von Ethikern und Forschern ethische Rahmenwerke entstanden, die die Entwicklung und Verbreitung von KI-Modellen in unserer Gesellschaft regeln sollen. Momentan stellen diese jedoch nur eine Orientierungshilfe dar. Einige Forschungsarbeiten (Link befindet sich außerhalb von ibm.com) (PDF, 1 MB) haben gezeigt, dass die Kombination von verteilter Verantwortung und mangelnder Voraussicht möglicher Folgen nicht dazu geeignet ist, Schaden von der Gesellschaft abzuwenden.
Da künstliche Intelligenz keine moralischen Maschinen hervorgebracht hat, haben Teams begonnen, Frameworks und Konzepte zusammenzustellen, um auf einige der aktuellen Bedenken im Bereich Ethik zu reagieren und so die künftige Arbeit auf diesem Gebiet zu gestalten. Während diese Richtlinien jeden Tag mehr an Struktur gewinnen, besteht bereits ein gewisser Konsens darüber, die folgenden Elemente zu integrieren:
Ethische KI zu erreichen ist zweifellos wichtig für den Erfolg der KI an sich. Es ist jedoch wichtig zu beachten, dass KI auch über ein enormes Potenzial verfügt, die Gesellschaft zum Guten zu verändern. Dies zeigt sich bereits bei der Integration von KI in Bereiche des Gesundheitswesens, wie z. B. die Radiologie. Mit dieser Diskussion über Ethik in der KI soll sichergestellt werden, dass wir bei unserem Versuch, diese Technologie zum Guten zu nutzen, bei ihrer Entwicklung auch ihr Schadenspotenzial angemessen bewerten.
Da ethische Normen nicht das Hauptanliegen von Dateningenieuren und Datenwissenschaftlern in der Privatwirtschaft sind, ist eine Reihe von Organisationen entstanden, die sich zum Ziel gesetzt haben, ethisches Verhalten im Bereich der künstlichen Intelligenz zu fördern. Für diejenigen, die an weiteren Informationen interessiert sind, bieten die folgenden Organisationen und Projekte Ressourcen zur Implementierung ethischer KI:
IBM hat auch seinen eigenen Standpunkt zur KI-Ethik formuliert, der auf den Prinzipien des Vertrauens und der Transparenz aufbaut und Kunden dabei hilft, zu verstehen, was die Werte von IBM in der Diskussion über KI sind. IBM hat drei Kernprinzipien, die seine Herangehensweise an Daten und KI bestimmen:
IBM hat außerdem eine Reihe von Schwerpunktbereichen entwickelt, um die verantwortungsvolle Einführung von KI-Technologien zu steuern. Dazu gehören:
Diese Prinzipien und Schwerpunkte bilden die Grundlage unseres Ansatzes zur KI-Ethik. Um mehr über die Standpunkte von IBM zu Ethik und künstlicher Intelligenz zu erfahren, lesen Sie mehr hier.
IBM ist bestrebt sicherzustellen, dass seine Produkte unter Berücksichtigung ethischer Richtlinien und Prinzipien entwickelt und eingesetzt werden. Eines der Produkte, das IBM seinen Kunden anbietet, ist IBM Watson Studio, das die Aufsicht über und die Einhaltung von ethischen KI-Normen verbessert.
IBM Watson Studio auf IBM Cloud Pak for Data unterstützt die Überwachung und Verwaltung von Modellen mit dem Ziel einer vertrauenswürdigen KI. Ein Unternehmen kann so KI-Modelle in der Produktion visualisieren und verfolgen, Modelle validieren und testen, um regulatorische Risiken zu mindern, und die Transparenz des KI-Lebenszyklus erhöhen. Melden Sie sich für eine IBMid an und erstellen Sie noch heute Ihr kostenloses IBM Cloud-Konto.
Mehr zum Standpunkt von IBM zum Thema Ethik in der künstlichen Intelligenz, erfahren Sie hier.
Erstellen Sie KI-Modelle, führen Sie sie aus und verwalten Sie sie. Bereiten Sie Daten vor und erstellen Sie Modelle in jeder beliebigen Cloud mit Open-Source-Code oder visueller Modellierung. Erstellen Sie Prognosen und optimieren Sie Ihre Ergebnisse.
IBM Cloud Pak for Data ist eine offene, erweiterbare Datenplattform, die eine Data Fabric bereitstellt und so alle Daten in jeder Cloud für KI und Analysen verfügbar macht.
IBMs interdisziplinärer, mehrdimensionaler Ansatz für vertrauenswürdige KI