AI

AI-modeller som säkrar AI-modeller

Share this post:

Att IBM för tredje året i rad utsetts till ett av världens mest etiska bolag av Ethisphere grundar sig bland annat i vårt arbete med att förespråka och möjliggöra implementation av etisk och tillförlitlig AI. Men vad menas då med begreppet ”etisk AI”? Vi på IBM menar förklarbarhet, rättvisa, teknisk robusthet, transparens och integritet. Det handlar med andra ord om att hitta sätt att göra AI-system transparenta och förklarbara, att reducera och upptäcka skevhet (eller ”databias”) som annars leder till diskriminering och att tydliggöra AI-systems starka och svaga sidor. Det handlar också om att förebygga säkerhetsrisker så som hackerattacker för att säkerställa att AI-modeller och även det data som används för att skapa modellerna är skyddade. För att skydda AI-system från säkerhetsintrång använder vi oss av säkerhetslösningar, vilka i sin tur numera ofta använder AI-modeller för att detektera säkerhetshot.

Ytterligare säkerhetsrisk med AI?

Det finns kända risker med AI-system, risker kopplade till de fem områden vi på IBM menar är avgörande för etisk och tillförlitlig AI. Då frågar du, med rätta: vad innebär det att vi skyddar affärskritiska AI-system med hjälp av säkerhetslösningar som i sin tur använder AI-modeller? Har vi skyddat AI-systemet eller har vi utsatt det för ytterligare risker? Förvirrande? Ingen fara, låt oss klargöra varför säkerhetslösningar använder AI men också vilka risker som skulle finnas med att enbart förlita sig på AI i säkerhetslösningar.

Fördelar med AI i säkerhetslösningar

kontorsarbetare med bebis som arbetar hemifrånDe senaste åren har det blivit allt vanligare att jobba från andra platser än kontoret. Under år 2020 var kontoret kanske till och med en av de ovanligare platserna att jobba ifrån, efter att pandemin gjort sitt intåg. Omställningen till hemmakontoret har för många organisationer ställt nya krav på IT-säkerheten. Det räcker inte längre att bara övervaka en brandvägg efter intrångsförsök. Nu när vår data och våra resurser finns utspridda på ett helt annat sätt måste vi ha nya sätt att upptäcka exempelvis IT-attacker på. Det här är en bidragande anledning till att AI och maskininlärning blivit en allt större och viktigare komponent i IT-säkerhetsarbetet.

AI-modeller kan bland annat användas för att upptäcka avvikelser och beteendemönster som tyder på säkerhetsintrång. Exempelvis är AI-modeller effektiva för att detektera onormala trafikmönster i ett nätverk, så som när någon som scannar vårt nätverk efter sårbara system eller laddar upp stora mängder data på internet. AI kan också användas för att upptäcka om specifika användares inlogg och lösenord har blivit kapat, detta genom att för varje användare analysera deras beteendemönster över tid. Vidare kan säkerhetslösningar använda textanalys för att i realtid granska sajter med säkerhetsnyheter, för att på så sätt presentera de mest relevanta hoten och trenderna för IT-avdelningarna som använder dessa säkerhetslösningar. AI hjälper alltså till att lösa en stor del av komplexitetsproblemet som IT-säkerhetsavdelningar världen över nu för tiden brottas med, genom att utföra uppgifter som för en människa skulle ta mycket lång tid och dessutom vara kostsamma.

Hur hanterar vi riskerna, då?

Onekligen finns det många fördelar med AI inom IT-säkerhet, men som vi konstaterade tidigare finns det även risker förknippade med att använda AI. Riskerna gäller oavsett om AI-modellen används i en självkörande bil, i en rekommendationsmotor, i ett sjukvårdssystem eller i en säkerhetslösning. Låt oss se vilka riskerna och utmaningarna blir när AI-modellen används inom en säkerhetslösning.

succulenter som bildar ett mönsterKomplettera med traditionell säkerhet

En utmaning är att möjliggöra förståelse för hur AI-modellen fungerar och vilket beteende som triggar ett säkerhetslarm. Att förstå vad som triggar ett larm kan vara avgörande för att kunna åtgärda problemet. Ifall leverantören av säkerhetslösningen har förtränat modellen kan de inte vara transparenta med information om vilka typer av beteenden som ger upphov till ett larm. Att gå ut med den informationen vore som att ge ut en manual på hur systemet fungerar vilket följaktligen skulle ge information om vad som krävs för att undgå att bli upptäckt av systemet. En lösning på detta vore att leverantören inte förtränar modellen utan att varje säkerhetsavdelning som implementerar lösningen tränar modellen på sin organisations nätverksdata. Utmaningen uppstår då ifall organisationen redan blivit utsatt för ett IT-angrepp utan att veta om det. Det skulle innebära att modellen tränas till att tro att den kommunikation som pågår i det utsatta nätverket är normal och den skulle därför inte larma på det. Det blir därför viktigt att komplettera AI-modeller med även annan typ av säkerhet så att varje säkerhetsavdelning till exempel kan säkerställa vilken kommunikation som är godkänd.

siren. för att illustrera larmtrötthetUndvik larmtrötthet

Det är dock inte enbart när AI-modeller larmar för sällan som utgör ett problem. Det kan även bli ett problem ifall de larmar för ofta. Författarna var nyligen i kontakt med en kommun vars AI-nätverksövervakning larmade varje gång eleverna i kommunens skolor kom tillbaka från sommarlovet. Larmet berodde naturligtvis på att AI-modellen uppfattade en stor förändring i nätverkstrafik mellan sommarlovsdagar och skoldagar. Om IT-säkerhetsavdelningen får för många falsklarm finns det risk att de drabbas av larmtrötthet, så kallad “alert fatigue”, som leder till att larm riskerar att ignoreras helt. Alert fatigue kan också vara en uttänkt strategi som hackare kan utnyttja. Genom att gradvis introducera brus i ett system skulle hackaren kunna påverka AI-modellen.

AI-modell kompletterar säkerhetslösningar

Vi frågade oss tidigare om AI i säkerhetslösningar bidrar till en minskad eller ökad risk för vår organisation. Det vi kan konstatera är att AI i säkerhetslösningar introducerar nya typer av risker men att dessa risker hanteras av traditionell IT-säkerhet. Dessa risker är liknande de utmaningar som vi ser generellt hos AI, exempelvis förklarbarhet och teknisk robusthet. Riskerna som introduceras hanteras genom att AI används som ett komplement till konventionella säkerhetsmetoder, snarare än att ersätta dem. Genom att använda traditionella säkerhetsmetoder i kombination med AI kan vi både mitigera de nya risker som uppstår, samtidigt som AI också ökar effektiviteten i säkerhetslösningarna som skyddar våra affärskritiska system.

 

Victor Grane, teknisk lösningsspecialist på IT-säkerhet

 

 

 

Therese Svensson, teknisk specialist på området data och artificiell intelligens

 

Mer läsning & information för den nyfikne:

Webinar 27 april, i regi av IDG: ”AI du kan lita på – från experiment till skalbarhet”

Hur IBM jobbar för etisk AI

Ethispheres ranking 2021  – världens mest etiska bolag

Principer för tillit och transparens i datahantering

Blogginlägg om databias som Therese skrivit här på THINK-bloggen 

More AI stories

Vi fortsätter bidra till att barn och unga är säkrare på nätet

Det var drygt ett år sedan jag senast skrev om CSR-initiativet ”Är du säker?” #290Cybersecurity. Då, i mars 2020, var vi precis i början av coronapandemin. Vi kunde väl aldrig tro att den skulle bli så långdragen som det blivit men vi förstod ändå att de föreläsningar vi gjorde ute på skolorna skulle behöva ta […]

Läs mer

Är ditt företag rustat för förödande cyberattacker?

Har du inte en plan nu, kommer du att göra planen när allt står stilla… Trots ett enormt fokus på cybersäkerhet inom näringsliv och offentlig sektor, har en hektisk arbetsmiljö medfört att många organisationer står utan planer för hur IT-ledningen ska hantera förödande cyberattacker. Något måste alltså göras. Här är tre tips som kan hjälpa företag […]

Läs mer

Operationell resiliens behövs när hela organisationen utmanas

Operationell resiliens* har sedan sommaren 2018 fått mer och mer fokus och COVID 19-pandemin har på många sätt testat organisationers resiliens till det yttersta. Att flytta fokus från resiliens som en IT-utmaning till ett område som är relevant för en hel organisation initierades av de brittiska tillsynsmyndigheterna Bank of England, FCA och PRA som en […]

Läs mer