Vägen mot en etisk och moralisk artificiell intelligens

Det är lätt att få panik av alla svarta rubriker om att AI kommer att ta ifrån oss våra jobb och sedan utplåna mänskligheten. Lugn, det finns en väg mot etisk och moralisk AI som tvärtom kommer att ge oss en ljus framtid.

Artificiell intelligens (AI) är i grunden avancerade datorprogram som kan träna sig själva och anpassa sig till de insikter som de skapar. AI kan långt ifrån lösa alla dagens tänkbara problem men bedöms allmänt ha mycket stor potential att förbättra våra liv.

Debatten om etik och moral i vår användning av AI har flammat upp över hela världen i takt med den allt snabbare utvecklingen av AI-tjänster inom alla sektorer. Det saknas balans mellan att ständigt måla upp potentiella risker och att diskutera lämpliga sätt att minimera dem.

Det är lätt att få panik av alla svarta rubriker om att AI kommer att ta ifrån oss våra jobb och sedan utplåna mänskligheten, här har Hollywood en stor skuld. Aktivister, forskare och jurister lyfter fram behovet av etik och ansvarsskyldighet för design och implementering av AI-system. Men nu ställer sig allt flera även den komplicerade frågan: vem ska definiera och upprätthålla denna etik?

Det är lätt att få panik av alla svarta rubriker om att AI kommer att ta ifrån oss våra jobb och sedan utplåna mänskligheten, här har Hollywood en stor skuld.

Flera av talarna på konferensen SingularityU Nordic Summit i Stockholm tog upp frågeställningar kring hur vi bör hantera den snabba utvecklingen inom AI utifrån etik och moral. De signalerade att det nu är angeläget att ha seriösa diskussioner om vårt etiska ansvar både för de tjänster som vi skapar och de produkter som vi väljer att använda.

AI har hittills mest hanterats av tekniker men man inser nu att utvecklingen även kräver samverkan med experter inom etik och personlig integritet samt juridik och att man säkrar att tjänsterna är fokuserade på nytta för människor och inte enbart på teknikens möjligheter. Exempelvis har Google publicerat sina sju principer för hur deras AI-utveckling skall:

1. Vara socialt gynnsam

2. Undvika att skapa eller förstärka fördomar

3. Byggas och testas för säkerhet

4. Vara ansvarig för människor

5. Bygga på principer för integritetsdesign

6. Uppfylla höga krav på vetenskaplig excellens

7. Göras tillgänglig för användning som överensstämmer med dessa principer

De organisationer som har upplysta ledare med intresse för etik inom AI kommer att ha en stor fördel inom den snabba AI-utvecklingen. De inför regelbunden fortbildning för sina anställda så att etikfrågorna inte blir eftersatta och många större företag har nu infört styrdokument för de anställdas arbete inom AI med kärnfrågor som rättvisa, ansvar och transparens.

AI förstärker mänskliga förmågor – på gott och ont

Artificiell Intelligens borde kanske istället kallas för augmenterad intelligens, det vill säga indikera att AI-tekniken kan ge oss människor förstärkta kognitiva förmågor. Det handlar ju inte bara om att AI-stödda tjänster kan processa data mycket snabbare än människor, utan även om att AI kan tänka och agera på helt nya sätt. Det illustreras tydligt idag med AI-program som spelar avancerade spel som schack och Go och som idag överlägset besegrar mänskliga världsmästare genom att göra “omänskliga drag”, det vill säga använda strategier som följer de uppsatta spelreglerna, men som som gör drag som ingen människa skulle göra.

Etikfrågan inom AI täcker ett brett spektrum av kritiska problem som mänskligheten idag står inför, allt ifrån hur vi kan undvika att algoritmerna har fördomar baserade på kön eller etnisk bakgrund till om AI-robotar ska ha egna rättigheter.

Vad används AI till idag?

AI finns redan överallt och dess utveckling kan inte stoppas, så frågan är hur vi kan maximera positiva nyttor och minimera negativa risker? Exempelvis så använder Google idag AI för många av sina tjänster:

1. Tolka bilder i Google Photos så att man kan söka på vad de föreställer

2. Möjliggöra för Waymos självkörande bilar att känna igen objekt i sin omgivning

3. Förbättra kvaliteten på ljud och bild i hårdvara

4. Förstå och skapa tal i Google Home

5. Översätta mellan över 100 språk i Google Translate

6. Skapa undertexter på 10 språk i över en miljard Youtube-videos.

7. Effektivisera sina datacenter

8. Föreslå korta svar i Gmail

9. Hjälpa läkare att diagnosticera ögonsjukdomar

AI som en av oss

Människoliknande intelligenta robotar kan komma att behöva egna lagar och regelverk, enligt framtidsvisionären Ray Kurzweil kommer det att hända så snart som 2029.

När vi ger mänskliga egenskaper till en maskin så uppstår etiska frågeställningar som vi annars bara skulle tillämpa på människor. När man talar med en bot, exempelvis som dagens smarta högtalare Alexa från Amazon, bör man då vara artig på samma sätt som mot sina medmänniskor? Det börjar redan bli vanligt att man säger tack till sin smarta högtalare hemma när man har fått ett bra svar på sin fråga.

Googles VD Sundar Pichai demonstrerar Duplex.

Google väckte stor uppståndelse i somras när man visade upp tjänsten Duplex, som är den senaste generationen av AI-stödda rösttjänster som man kan konversera med muntligen på en helt annan nivå än tidigare. Under deras demo ringde Duplex-tjänsten upp en frisersalong och bokade en klipptid med en dialog om möjliga tider och önskad typ av klippning, utan att frisören anade att hon talade med en maskin och inte en människa. Google tog till sig av kritiken mot detta och har nu börjat rulla ut tjänsten i några stater i USA där man kan använda den för att ringa upp olika företag, men nu inleder Duplex med att berätta att den är en bot som ringer på uppdrag av en människa.

Har en AI fördomar?

Bland talarna på konferensen fanns Anita Schjøll Brede som är Faculty AI på Singularity University Nordic. Hon efterlyste etiska ramverk och tog upp att vi måste tänka på att AI-system är skapade av människor som kan ha olika fördomar, AI är starkt beroende både av hur dess algoritmer är byggda och vilket urval av data som algoritmerna får tillgång till. Så om algoritmerna är byggda med partiskhet eller fördomar hos utvecklarna, medvetna eller omedvetna, så blir resultaten skeva. En fördel med AI är dock att det går att detektera partiskhet och fördomar i algoritmerna och deras datamängder och korrigera dessa. Det är mycket svårare att korrigera fördomar hos oss människor!

Så om algoritmerna är byggda med partiskhet eller fördomar hos utvecklarna, medvetna eller omedvetna, så blir resultaten skeva.

I USA upptäcktes nyligen att en algoritm som används för att bedöma fångars återfallsrisk på felaktiga grunder genomgående predicerade mycket högre återfallsrisker för färgade fångar än vita. Detta system används i över tolv stater och ger alltså felaktiga bedömningar av vilka fångar som ska släppas ut eller sitta kvar i fängelse.

En undersökning av rekryteringsannonser för högavlönade arbeten på Google visade att de visades sex gånger ofta för män som för kvinnor. Konsekvensen av denna inprogrammerade fördom blir att färre kvinnor ser annonserna för högavlönade arbeten och därmed inte kan söka dom.

Anita Schjøll Brede på SingularityU Nordic Summit 2018 i Stockholm. Foto: Magnus Aschan

Personlig integritet

Hur kan vi balansera fundamentala behov av integritetsskydd, etik, moral och empati med den snabba utvecklingen inom AI som kräver tillgång till personliga data för att ge oss AI-tillämpningar som skapar värden för oss människor och vår miljö?

En viktig frågeställning handlar om etiken i att inte göra något som vi skulle kunna göra med hjälp av AI. Ett exempel är den proaktiva algoritmen hos Facebook som detekterar tidiga tecken på självmordsbenägna i användares postningar. Vid behov notifieras då en utbildad moderator som kan kontakta användaren med support-information och även kontakta sjukvården vid behov. Denna funktion har redan räddat liv i många länder utom inom EU, där GDPR-lagen hindrar sådan personlig profilering av användare.

Moderatorn Laila Pawlak, CEO för Singularity University Nordic, avslutade konferensen med uppmaningen: “The future we create depends on the challenges we dare take today.”

En annan stor tänkare, fysikprofessorn och kosmologen Max Tegmark uttrycker:

Fråga inte “Vad kommer att hända i framtiden?"

Fråga istället dig själv "Vad vill du ska hända?"

"Skapa sedan den framtiden!”

Henrik Ahlén
193 dagar sedan

Skribent och strateg inom eHälsa på Sopra Steria Sweden.