Ein neues Tool wurde entwickelt, um Studierende beim Schummeln mit ChatGPT zu erwischen. Es ist zu 99,9 % wirksam. OpenAI hat es jedoch nicht veröffentlicht, da es mit ethischen Bedenken behaftet ist.
Das ist nur ein Beispiel für eine der großen Herausforderungen, vor denen die KI steht. Wie können wir die Technologie überwachen, um sicherzustellen, dass sie ethisch korrekt eingesetzt wird?
Seit einigen Jahren drängen die größten Namen im Bereich der KI darauf, dass ihre Technologie verantwortungsvoll eingesetzt wird. Und der ethische Einsatz von KI ist nicht nur das Richtige für Unternehmen – er entspricht auch dem Wunsch der Verbraucher. Laut dem IBM Global KI Adoption Index glauben 86 % der Unternehmen, dass Kunden Unternehmen bevorzugen, die ethische Richtlinien anwenden und transparent darlegen, wie sie ihre Daten und KI-Modelle nutzen.
„Wir sind längst über das Stadium hinaus, in dem wir hoffen, dass Unternehmen sich [der ethischen Nutzung von KI] bewusst sind“, erklärt Phaedra Boinodiris, Global Leader für vertrauenswürdige KI bei IBM. „Die wichtigere Frage lautet: Warum ist es für Unternehmen und andere Organisationen wichtig, für sichere und verantwortungsvolle Ergebnisse der von ihnen eingesetzten KI zur Rechenschaft gezogen zu werden?“
Können KI-Ethiktools helfen? Sind die Tools selbst verzerrt? Hier ein kurzer Überblick über die neuesten Forschungsergebnisse.
Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.
Die Zahl der Deepfake-Betrugsversuche stieg von 2022 auf 2023 um 3000 % und wird immer ausgefeilter. Im Februar wurde ein Finanzangestellter eines multinationalen Unternehmens in Hongkong von Kriminellen um 25 Millionen US-Dollar betrogen. Die Kriminellen hatten eine Videokonferenz mit mehreren Deepfake-Charakteren, darunter dem Finanzvorstand des Unternehmens, inszeniert.
Im Mai gab OpenAI bekannt, dass es ein eigenes Deepfake-Erkennungstool für Desinformationsforscher veröffentlicht hat. Das Tool konnte 98,8 % der mit DALL-E 3 erstellten Bilder erkennen. OpenAI schloss sich außerdem Google, Adobe und anderen im Lenkungsausschuss der Coalition for Content Provenance and Authenticity (C2PA) an, einer Branchenkoalition, die einen Standard zur Zertifizierung der Geschichte und Herkunft von Medieninhalten entwickelt.
Bis dieser Standard festgelegt ist, entwickeln die Unternehmen Tools, mit denen sie die Lücke schließen können. Im August kündigte McAfee seinen McAfee Deepfake Detector an. Das Tool verwendet Neural-Network-Modelle, um gefälschte KI-Audios in Videos zu erkennen, die in Ihrem Browser abgespielt werden. Im Jahr 2022 stellte Intel FakeCatcher vor, das den Blutfluss in Videopixeln analysiert und Menschen mit einer Genauigkeit von 96 % von Deepfakes unterscheidet. Und sie sind nicht allein. Zu den bekannten Startups in diesem Bereich gehören Reality Defender aus New York, das israelische Startup Clarity und das in Estland ansässige Unternehmen Sentinel. Sie alle bieten Scanning-Tools an, die mithilfe von KI Muster in verschiedenen Arten von Deepfakes erkennen.
Da sich die Deepfake-Erkennungstechnologie so rasant weiterentwickelt, ist es wichtig, mögliche algorithmische Verzerrungen im Auge zu behalten. Der Informatiker und Deepfake-Experte Siwei Lyu und sein Team an der University of Buffalo haben ihrer Ansicht nach die ersten Deepfake-Erkennung-Algorithmen entwickelt, die darauf abzielen, Verzerrungen zu minimieren. Die UB-Forscher erstellten eine Fotocollage aus den Hunderten von Gesichtern, die in ihren Erkennungsalgorithmen als Fälschungen identifiziert wurden; die Ergebnisse zeigten einen insgesamt dunkleren Hautton.
„Deepfakes können dazu missbraucht werden, unterrepräsentierte Minderheitengruppen anzugreifen. Deshalb ist es wichtig sicherzustellen, dass Erkennungstechnologie diese Gruppen nicht benachteiligt“, erklärt Lyu. Und wie sieht die Zukunft der Deepfake-Erkennung aus? „Die generative KI-Technologie, die den Deepfakes zugrunde liegt, wird zweifellos weiter wachsen, sodass wir Deepfakes in zunehmender Anzahl, Qualität und Vielfalt sehen werden.“ Ich gehe davon aus, dass zukünftige [Erkennungs]-Technologien mit mehr Schutzmechanismen ausgestattet sein werden, um die Wahrscheinlichkeit von Missbrauch zu verringern.“
Gesichtserkennungssysteme werden immer häufiger eingesetzt, um die Identität eines Benutzers bequem zu authentifizieren – doch diese Systeme sind seit langem mit ethischen Problemen behaftet, die von rassistischer Verzerrung bis hin zum Datenschutz reichen. Erschwerend kommt hinzu, dass „einige Verzerrungen [auch] intersektional sind und somit mehrere Ebenen von Vorurteilen verstärken“, bemerkt Helen Edwards, Mitbegründerin des KI-Ethik-Think-Tanks Artificiality.
Im Mai wurde der Datenbestand des australischen Startups Outabox, das sich auf Gesichtserkennung spezialisiert hat, gehackt, wodurch die biometrischen Daten von mehr als einer Million Benutzern offengelegt wurden. Anfang dieses Jahres wurde der Trojaner „GoldPickAxe“, der es auf Android- und iOS-Geräte abgesehen hatte, dabei erwischt, wie er Gesichtsdaten erfasste, um sich Zugang zu Bankkonten zu verschaffen.
Ein vielversprechender Ansatz zum Schutz biometrischer Gesichtsdaten besteht darin, diese so zu verschlüsseln, dass dies für das menschliche Auge unmerklich ist, aber Erkennungssysteme verwirrt. Eines der ersten Tools hierfür war Fawkes, ein Projekt, das an der University of Chicago entwickelt wurde. Das nach der Guy-Fawkes-Maske benannte Programm wurde entwickelt, um Fotos durch subtile Veränderung der Pixel zu tarnen. Es kann kostenlos auf der Website des Projekts heruntergeladen werden.
Vor kurzem haben Forscher des USSLAB der Zhejiang-Universität CamPro entwickelt, das darauf abzielt, AFR auf Kamerasensorebene zu erreichen. CamPro erzeugt Bilder, die die Gesichtserkennung auf 0,3 % reduzieren, ohne andere Anwendungen wie die Aktivitätserkennung zu beeinträchtigen.
Für Unternehmen und Bildungseinrichtungen ist es nach wie vor schwierig, KI-generierte Texte zu erkennen. Bei einem Blindtest an der University of Reading wurden fünf verschiedene Psychologiemodule mit von ChatGPT geschriebenen Prüfungen kombiniert, die von echten Studierenden geschrieben wurden. Eine im Juni durchgeführte Studie ergab, dass 94 % der Antworten in der ChatGPT-Prüfung von den Prüfern nicht bemerkt wurden. Die KI-generierten Prüfungen erzielten im Durchschnitt auch eine halbe Note bessere Ergebnisse als die Prüfungen der Studierenden.
Eine Vielzahl von KI-generierten Texterkennungssystemen ist auf den Markt gekommen, um dieses Problem anzugehen. Sie suchen nach gemeinsamen Merkmalen von KI-generierten Texten wie Wiederholungen und perfekter Grammatik. Experten warnen jedoch, dass sie noch nicht zuverlässig sind und häufig Verzerrungen aufweisen.
Eine im letzten Jahr durchgeführte Studie der Stanford University ergab, dass KI-Systeme Texte von Nicht-Muttersprachlern im Durchschnitt in 61,3 % der Fälle als fehlerhaft einstuften, bei der Bewertung von Texten englischer Muttersprachler jedoch weitaus weniger Fehler machten.
Wenn Menschen KI-generierte Texte als ihre eigenen ausgeben, ist das nicht nur unehrlich – manchmal handelt es sich auch um ein Plagiat, was schwerwiegende rechtliche Konsequenzen nach sich ziehen kann. Aus diesem Grund setzen einige Unternehmen KI-Schreibdetektoren ein, um die Texte ihrer Schreiber zu prüfen. Dies hat dazu geführt, dass Unternehmen Autoren fälschlicherweise beschuldigen, KI-generierte Texte als ihre eigenen auszugeben, wodurch der Ruf und die Karriere der Autoren geschädigt werden.
Datensätze enthalten oft die unbewussten Verzerrungen derjenigen, die sie erstellen. Deshalb ist algorithmische Verzerrung ein so hartnäckiges Problem in den LLMs, die mit diesen Daten trainiert werden.
In einem Beispiel verwendeten Forscher an der Cornell University ChatGPT und Alpaca, um Empfehlungsschreiben für Männer und Frauen zu generieren; die Schreiben wiesen eine signifikante Verzerrung zugunsten der Männer auf. Die generierten Formulierungen wie „Kelly ist eine herzliche Person“ versus „Joseph ist ein Vorbild“ verdeutlichten, wie sich diese Verzerrungen auf Frauen am Arbeitsplatz auswirken können.
Forscher arbeiten daran, Wege zu finden, Verzerrungen zu erkennen und abzuschwächen. Ein Team der University of Illinois Urbana-Champaign entwickelte QuaCer-B, das beweisbare LLM-Verzerrungsmaße für Prompts generiert, die aus vorgegebenen Verteilungen stammen, und sowohl für API- als auch für Open-Source-LLMs verwendet werden kann.
„Das KI Branchen stützt sich derzeit auf die Bewertung der Sicherheit und Vertrauenswürdigkeit seiner Modelle, indem es sie an einer kleinen Anzahl von Benchmark-Eingaben testet“, erklärt UIUC-Professor Gagandeep Singh, einer der führenden Forscher hinter QuaCer-B. „Die sichere Generierung von Benchmark-Eingaben garantiert jedoch nicht, dass die von LLM generierten Inhalte ethisch korrekt sind, wenn es um den Umgang mit vielfältigen, unvorhergesehenen Szenarien in der realen Welt geht. QuaCer-B ermöglicht es LLM-Entwicklern, fundierte Entscheidungen über die Eignung ihrer Modelle für den Einsatz in der Praxis zu treffen und auch Fehlerursachen zu identifizieren, um das Modell zu verbessern.“
Mit der fortschreitenden Entwicklung der KI werden auch neue ethische Probleme entstehen. Und obwohl Tools zur Erkennung, Überwachung und Verhinderung unethischer Nutzung der Technologie ein Anfang sind, betrachten KI-Ethikexperten sie nicht als Allheilmittel.
„Das Schwierigste ist nicht, das richtige Tool zu kaufen“, fügt Boinodiris hinzu. „Der verantwortungsvolle Umgang mit KI ist eine soziotechnische Herausforderung, die einen ganzheitlichen Ansatz erfordert. Und die Menschen sind der schwierigste Teil der Gleichung.“
„Neben einer durchdachten Regulierung und Durchsetzung ist der Schlüssel zu ethischer KI die Prüfung nach der Markteinführung, die kontinuierliche Überwachung der Leistung und die Minimierung von Risiken“, erklärt Gemma Galdón-Clavell, Beraterin der Vereinten Nationen und der EU für angewandte Ethik und Verantwortungsvolle KI und Gründerin von Eticas.ai. „Denken Sie an die Automobilbranche: Warnleuchten und Abstandssensoren können Fahrern helfen, Unfälle zu vermeiden, aber wir brauchen immer noch Sicherheitsgurte, Airbags und regelmäßige Inspektionen, um sicherzustellen, dass die Straße so sicher wie möglich ist.“
Verwalten Sie generative KI-Modelle von überall aus und stellen Sie diese in der Cloud oder lokal mit IBM watsonx.governance bereit.
Sehen Sie, wie KI-Governance dazu beitragen kann, das Vertrauen Ihrer Mitarbeiter in KI zu stärken, die Einführung und Innovation zu beschleunigen und das Vertrauen der Kunden zu verbessern.
Bereiten Sie sich auf das EU-Gesetz zur KI vor und etablieren Sie mithilfe von IBM Consulting einen verantwortungsvollen KI-Governance-Ansatz.