Papirfly AI Labs etiska stadga
Var en god samhällsmedborgare när det gäller våra användares rättmätiga integritet
1. Vi måste alltid följa lokala, regionala (inklusive GDPR), och internationella integritetslagar. Utöver frågan om laglighet måste vi alltid behandla användare etiskt. Detta inkluderar att skapa AI-applikationer som inte inkräktar på deras integritet, inte försöker utnyttja deras data, inte samlar in några data utan uttryckligt (och förstådd) samtycke och inte spårar användare utanför vår egen muromgärdade trädgård. Vi behöver inte data från resten av deras aktiviteter, så vi bör inte försöka få tag på och använda dem.
2. Som en strikt regel använder vi inte data för att skapa profiler av våra användare för att underlätta negativ poängsättning, förutsägelse eller klassificering av deras beteenden. Vi får aldrig använda deras personliga attribut eller känsliga uppgifter för något syfte. Ingen av dessa taktiker krävs för att vi ska kunna skapa bättre programvara för dem (vilket är vad vi är här för att göra) och därför är det olämpligt. Vi måste alltid förstå var vår etiska röda gräns går och se till att allt vi gör är på rätt sida av den.
Se till att vi agerar opartiskt – alltid – som vi förväntar oss att bli behandlade.
3. Vi är medvetna om att det kan finnas oacceptabla partiskheter i allt beslutsfattande – oavsett om det är människobaserat eller maskinbaserat. När vi skapar AI-applikationer måste vi alltid försöka eliminera personliga åsikter, bedömningar eller övertygelser; oavsett om de är medvetna eller inte. Algoritmisk partiskhet kan delvis mildras genom att använda korrekta och aktuella data, så vi måste alltid göra det. Kom ihåg att en partisk AI kommer att producera resultat av liknande kvalitet som en partisk människa – "skräp in, skräp ut" gäller alltid här.
4. Vi måste använda AI för att stärka gott och korrekt mänskligt beslutsfattande. Vi vill inte, eller behöver, bygga teknik för att fatta automatiserade beslut. Precis som inom andra områden i vår verksamhet, som rekrytering, har vi ännu inte bevisat styrkan i positiv särbehandling (ibland kallad positiv särbehandling) och därför anses matematisk avreglering inte vara ett alternativ för oss. Därför måste allt beslutsfattande inom alla applikationer inkludera människor. Deras kompetens, erfarenhet och emotionella intelligens kan – och bör – sedan kompletteras med AI.
5. Vi arbetar enligt principen ”du får ut vad du stoppar in” och förstår att för att bygga teknik för framtiden kan vi varken bara se tillbaka på det förflutna (till exempel med hjälp av föråldrad data) eller bygga AI ovanpå befintliga mänskliga fördomar. Fördomar baserade på kön, etnicitet, ålder, politisk och sexuell läggning (denna lista är inte uttömmande) är alla diskriminerande och vi måste proaktivt utesluta detta mänskliga drag från idag och igår i vårt sökande efter morgondagens tekniska lösningar.
Bygg in högsta möjliga nivå av förklarbarhet, eftersom resultatet är viktigt
6. Vi är inte intresserade av att bara bygga svarta lådor. Om vi inte kan skapa försvarbara immateriella rättigheter utan att göra det, så gör vi inte vårt jobb ordentligt. Vi vill, där det är möjligt – och alltid när det är möjligt – kunna förklara, replikera och reproducera resultatet av en maskin vi har byggt. Vi är skyldiga våra användare detta och det är också så vi blir bättre på det vi gör. Ju bättre vi förstår vad vi bygger, desto snabbare kan vi utveckla det.
7. Vi ansluter oss aktivt till principen om "rätten till förklaring" som förespråkas av Apple, Microsoft och andra. Vi måste bygga applikationer som ger användarna kontroll över sina personuppgifter, avgör hur beslut har fattats och enkelt kan förstå vilken roll deras data spelar i vår produktutveckling. Vi kan göra detta utan att det påverkar vår förmåga att försvara vår immateriella rättigheter och bör därför göra det som standard. Även om fullständig replikering inte alltid är möjlig (till exempel inom djupa neurala nätverk) är vårt uppdrag – och vår policy – att göra så mycket som möjligt.
Sammantaget är vår uppgift enkel – vi måste bygga teknik som är utformad för att göra gott
8. Teknologi är en underbar och kraftfull sak. Som mjukvaruföretag måste vi tro på det. Men bakom varje tillämpning för gott finns det oftast också möjligheter till ont. I takt med att vi är mer och mer beroende av AI kommer den att ta en större roll inom vår organisation. Allt eftersom vi utformar och finslipar den är det vårt ansvar att sätta etiken i förgrunden och bygga ansvarsfullt. För tillfället är vi våra egna tillsynsmyndigheter. Låt oss vara de bästa tillsynsmyndigheterna vi kan vara.
Innehållsförteckning:
- Var en god samhällsmedborgare när det gäller våra användares rättmätiga integritet
- Se till att vi agerar opartiskt – alltid – som vi förväntar oss att bli behandlade.
- Bygg in högsta möjliga nivå av förklarbarhet, eftersom resultatet är viktigt
- Sammantaget är vår uppgift enkel – vi måste bygga teknik som är utformad för att göra gott