Papirfly Ethische Charta des AI Lab

Seien Sie ein verantwortungsvoller Unternehmensbürger, wenn es um die rechtmäßige Privatsphäre unserer Benutzer geht

1. Wir müssen stets lokale, regionale (einschließlich GDPR) und internationale Datenschutzgesetze. Über die Frage der Legalität hinaus müssen wir unsere Nutzer stets ethisch behandeln. Dazu gehört die Entwicklung von KI-Anwendungen, die ihre Privatsphäre nicht verletzen, ihre Daten nicht ausnutzen, keine Daten ohne ausdrückliche (und verständliche) Zustimmung sammeln und Nutzer nicht außerhalb unseres eigenen geschlossenen Bereichs verfolgen. Wir benötigen keine Daten über ihre übrigen Aktivitäten und sollten daher auch nicht versuchen, sie zu erhalten und zu nutzen.

2. Wir verwenden Daten grundsätzlich nicht, um Profile unserer Nutzer zu erstellen, um ihr Verhalten negativ zu bewerten, vorherzusagen oder zu klassifizieren. Wir dürfen ihre persönlichen Eigenschaften oder sensiblen Daten niemals für irgendeinen Zweck verwenden. Keine dieser Taktiken ist erforderlich, um bessere Software für sie zu entwickeln (und das ist unser Ziel) und daher unangemessen. Wir müssen stets unsere ethische Grenze kennen und sicherstellen, dass alles, was wir tun, im Einklang damit steht.

Stellen Sie sicher, dass wir stets unvoreingenommen handeln, so wie wir auch behandelt werden möchten.

3. Wir sind uns bewusst, dass jede Entscheidung – ob menschlich oder maschinell – inakzeptable Voreingenommenheit aufweisen kann. Bei der Entwicklung von KI-Anwendungen müssen wir stets versuchen, persönliche Meinungen, Urteile oder Überzeugungen – ob bewusst oder unbewusst – auszuschließen. Algorithmische Voreingenommenheit lässt sich teilweise durch die Verwendung präziser und aktueller Daten abmildern, daher müssen wir dies stets tun. Denken Sie daran: Eine voreingenommene KI liefert qualitativ ähnliche Ergebnisse wie ein voreingenommener Mensch – „Garbage in, Garbage out“ gilt hier immer.

4. Wir müssen KI nutzen, um gute und korrekte menschliche Entscheidungen zu unterstützen. Wir wollen und müssen keine Technologie entwickeln, die automatisierte Entscheidungen trifft. Wie in anderen Bereichen unseres Geschäfts, beispielsweise der Personalbeschaffung, haben wir die Wirksamkeit von Affirmative Action (auch positive Diskriminierung genannt) noch nicht unter Beweis gestellt. Daher kommt eine mathematische De-Biasing-Methode für uns nicht in Frage. Daher muss die gesamte Entscheidungsfindung in jeder Anwendung von Menschen durchgeführt werden. Ihre Fähigkeiten, Erfahrungen und emotionale Intelligenz können – und sollten – dann durch KI ergänzt werden.

5. Wir arbeiten nach dem Prinzip „Man bekommt, was man investiert“ und verstehen, dass wir, um Technologien für die Zukunft zu entwickeln, weder nur in die Vergangenheit blicken (beispielsweise mit veralteten Daten) noch KI auf bestehenden menschlichen Vorurteilen aufbauen können. Vorurteile hinsichtlich Geschlecht, ethnischer Zugehörigkeit, Alter, politischer und sexueller Orientierung (diese Liste ist nicht vollständig) sind allesamt diskriminierend, und wir müssen diese menschlichen Eigenschaften von heute und gestern bei unserer Suche nach Technologielösungen von morgen proaktiv ausschließen.

Bauen Sie das höchstmögliche Maß an Erklärbarkeit ein, denn das Ergebnis ist wichtig

6. Wir sind nicht daran interessiert, nur Blackbox-Lösungen zu entwickeln. Wenn wir ohne Blackbox-Lösungen kein schutzwürdiges geistiges Eigentum schaffen können, machen wir unsere Arbeit nicht richtig. Wir wollen, wann immer möglich – und immer – in der Lage sein, die Ergebnisse einer von uns gebauten Maschine zu erklären, zu replizieren und zu reproduzieren. Das sind wir unseren Nutzern schuldig, und so werden wir auch in unserer Arbeit besser. Je besser wir verstehen, was wir bauen, desto schneller können wir es weiterentwickeln.

7. Wir bekennen uns aktiv zum „Recht auf Erklärung“, wie es von Apple, Microsoft und anderen vertreten wird. Wir müssen Anwendungen entwickeln, die Nutzern Kontrolle über ihre persönlichen Daten geben, ihnen die Entscheidungsfindung ermöglichen und ihnen die Rolle ihrer Daten in unserer Produktentwicklung leicht verständlich machen. Dies ist möglich, ohne den Schutz unseres geistigen Eigentums zu beeinträchtigen, und sollte daher standardmäßig so erfolgen. Obwohl eine vollständige Replikation nicht immer möglich ist (z. B. in tiefen neuronalen Netzwerken), ist es unsere Mission – und unsere Politik –, so viel wie möglich zu tun.

Insgesamt ist unsere Aufgabe einfach: Wir müssen Technologien entwickeln, die Gutes bewirken.

8. Technologie ist wunderbar und mächtig. Daran müssen wir als Softwareunternehmen glauben. Doch hinter jeder guten Anwendung stecken meist auch Möglichkeiten für Böses. Da wir uns immer mehr auf KI verlassen, wird sie in unserem Unternehmen eine immer größere Rolle spielen. Bei der Entwicklung und Verbesserung liegt es in unserer Verantwortung, ethische Grundsätze in den Vordergrund zu stellen und verantwortungsvoll zu handeln. Im Moment sind wir unsere eigenen Regulatoren. Lassen Sie uns die bestmöglichen Regulatoren sein.