Dr. Rer. Nat. Sebastian Pape Habilitationskolloquium 22. Februar

Dr. Rer. Nat. Sebastian Pape Habilitationskolloquium 22. Februar

Fairness im Maschinellen Lernen Dr. rer. nat. Sebastian Pape Habilitationskolloquium 22. Februar 2021 Agenda ● Einführung – Motivation – Maschinelles Lernen – Einordnung ● Fairness – Bias – Diskriminierung – Definition Fairness ● Algorithmen – Klassifizierung – Word Embedding ● Herausforderungen ● Zusammenfassung 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 2/25 Aufgaben für maschinelles Lernen Source: https://www.oneragtime.com/24-industries-disrupted-by-ai-infographic/ 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 3/25 Motivation Source: Caroline Chen, ProPublica https://www.propublica.org/article/only-seven-of-stanfords-first-5-000-vaccines-were-designated-for-medical-residents 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 4/25 Machine Learning vs. Traditional Approaches Input Data Input Data Machine Model / Traditional Output Data Learning Program Approach Output Data 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 5/25 Generelle Herausforderungen von Maschinellem Lernen ● Angriffe ● Datenschutz ● Große Datenmengen zum Training benötigt ● Erklärbarkeit / Interpretierbarkeit ● Ethik 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 6/25 Ethik im Maschinellen Lernen Hagendorff, T. (2020). The ethics of AI ethics: An evaluation of guidelines. Minds and Machines, 30(1), 99-120. 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 7/25 Ethik im Maschinellen Lernen Hagendorff, T. (2020). The ethics of AI ethics: An evaluation of guidelines. Minds and Machines, 30(1), 99-120. 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 8/25 Bias Daten ● Historical Bias ● Behavioral Bias ● Aggregation Bias ● Presentation Bias ● Temporal Bias ● Linking Bias ● Social Bias ● Content Production Bias Benutzer Interaktion Algorithmus ● Omitted Variable Bias ● Cause-Effect Bias ● Observer Bias ● Funding Bias ● Measurement Bias ● Popularity Bias ● Simpson’s Paradox ● Ranking Bias ● Evaluation Bias ● Emergent Bias Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2019). A survey on bias and fairness in machine learning. arXiv preprint arXiv:1908.09635. 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 9/25 Diskriminierung ● Geschützte Attribute ● Direkte Diskriminierung – Geschlecht – Geschützte Attribute – Abstammung ● Indirekte Diskriminierung – Rasse – Korrelation mit geschützten – Sprache Attributen – Heimat und Herkunft ● – Glauben Systemische Diskriminierung – religiöse/politische ● Statistische Diskriminierung Anschauungen – Schluss von Statistik auf Individuum – Alter ● – Behinderung Erklärbare Diskriminierung – z.B. Geschlecht – Arbeitszeit – Jahresgehalt – Familienstand ● Unerklärbare Diskriminierung Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2019). A survey on bias and fairness in machine learning. arXiv preprint arXiv:1908.09635. 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 10/25 (Binäres) Klassifizierungsproblem Prädiktor ● Attribute ● Name ● Alter ● Geschlecht ● Wohnort ● Einkommen ● Blutgruppe ● ... 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 11/25 Fairness Definitionen (Gruppe) Y = 1 Y = 0 Equal Opportunity P(Ŷ=1 |A=0,Y=1) = P(Ŷ=1 |A=1,Y=1) (TP) A=1 Y Y Conditional Statistical Parity A=0 P(Ŷ=1 |L=1, A=0) = P(Ŷ=1 |L=1,A=1) (TP) Y Y L: Menge legitimer Attribute TP FN FP TN Equalized Odds P(Ŷ=1 |A=0,Y=1) = P(Ŷ=1 |A=1,Y=1) (TP) P(Ŷ=1 |A=0,Y=0) = P(Ŷ=1 |A=1,Y=0) (FP) Y Y Y Demographic Parity P(Ŷ=1 |A=0) = P(Ŷ=1 |A=1) - Relaxation: p%-Regel (A=1 bevorzugt) P(Ŷ=1 | A=0) / P(Ŷ=1 | A=1) ≥ ϵ mit ϵ=p/100 ∈ [0,1]. 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 12/25 Fairness Definitionen (Individuum) Y = 1 Y = 0 A=1 Fairness Through Awareness Y Y - Ähnliche Ergebnisse für ähnliche Individuen A=0 Y Y Fairness Through Unawareness - Geschützte Attribute werden nicht explizit verwendet TP FN FP TN Counterfactual Fairness P(ŶA←a (U)=y|X=x,A=a) = P( ŶA←a’ (U)=y|X=x,A=a) U: Menge der Variablen, die nicht von X und A Y Y verursacht werden Y X: Kontext - selbes Ergebnis wie in anderer Gruppe Kusner, M. J., Loftus, J. R., Russell, C., & Silva, R. (2017). Counterfactual fairness. arXiv preprint arXiv:1703.06856. 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 13/25 Targeting Biases Input Data Pre- Post- Processing Processing Prädiktor Input Data Machine Model / Traditional Output Data Learning Program Approach In-Processing Output Data Disparate learning - geschützte Attribute … sind in der Lernphase erlaubt … sollen im Prädiktor vermieden werden 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 14/25 (Faire) Binäre Klassifizierung I ● ● Training Klassifizierung Faire Klassifizierung – – Binär, konvex „margin-based“ Demographic Parity mit Relaxation: p%-Regel P(Ŷ=1 | A=0) / P(Ŷ=1 | A=1) ≥ p / 100 – Schwer p%-Regel direkt in θ zu integrieren 1) Gesucht: f(x) → y ● Führt zu schwer lösbaren Optimierungsproblemen 2) Identifikation von Parameter θ* für Entscheidungs-Grenze ● Solange sich die „Seite“ von X nicht ändert, ist p%-Regel unverändert 1) Trainingsdaten {(xi, yi)} i=1..N 2) θ* = argminθ L(θ) – Idee: neues Mass für Fairness: ● Kovarianz zwischen geschütztem Attribut A und Abstand zur Entscheidungs-Grenze dθ*(X) Cov(A, dθ*(X)) = E[ ( A – A ) dθ*(X) ] - E[ ( A – A ) ] dθ*(X) ● Klassifizierung ≈ ≈ 1/N Σi=1..N (Ai – A ) dθ*(Xi) fθ(X) → 1 gdw. dθ*(X) ≥ 0 Ŷ=1 fθ(X) → 0 gdw. dθ*(X) < 0 ● Fairness-Problem falls X mit A korreliert Zafar, M. B., Valera, I., Rogriguez, M. G., & Gummadi, K. P. (2017, April). Fairness constraints: Mechanisms for fair classification. In Artificial Intelligence and Statistics (pp. 962-970). PMLR. 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 15/25 (Faire) Binäre Klassifizierung I ● ● Training Klassifizierung Faire Klassifizierung – – Binär, konvex „margin-based“ Demographic Parity mit Relaxation: p%-Regel P(Ŷ=1 | A=0) / P(Ŷ=1 | A=1) ≥ p / 100 – Schwer p%-Regel direkt in θ zu integrieren 1) Gesucht: f(x) → y ● Führt zu schwer lösbaren Optimierungsproblemen 2) Identifikation von Parameter θ* für Entscheidungs-Grenze ● Solange sich die „Seite“ von X nicht ändert, ist p%-Regel unverändert 1) Trainingsdaten {(xi, yi)} i=1..N 2) θ* = argminθ L(θ) – Idee: neues Mass für Fairness: ● Kovarianz zwischen geschütztem Attribut A und Abstand zur Entscheidungs-Grenze dθ*(X) Cov(A, dθ*(X)) = E[ ( A – A ) dθ*(X) ] - E[ ( A – A ) ] dθ*(X) ● Klassifizierung ≈ ≈ 1/N Σi=1..N (Ai – A ) dθ*(Xi) fθ(X) → 1 gdw. dθ*(X) ≥ 0 Ŷ=1 fθ(X) → 0 gdw. dθ*(X) < 0 ● Fairness-Problem falls X mit A korreliert Zafar, M. B., Valera, I., Rogriguez, M. G., & Gummadi, K. P. (2017, April). Fairness constraints: Mechanisms for fair classification. In Artificial Intelligence and Statistics (pp. 962-970). PMLR. 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 16/25 (Faire) Binäre Klassifizierung II ● Faire Klassifizierung ● Training Klassifizierung – c lässt sich nicht aus p herleiten – Binär, konvex „margin-based“ – Numerische Lösung 1) Gesucht: f(x) → y – Erlaubt wahlweise Optimierung von 2) Identifikation von Parameter θ* ● Accuracy unter Fairness-NB für Entscheidungs-Grenze ● Fairness unter Accuracy-NB 1) Trainingsdaten {(xi, yi)} i=1..N – Disparate Learning erfüllt 2) θ* = argminθ L(θ) NB: 1/N Σi=1..N (Ai – A ) dθ*(Xi) ≤ c 1/N Σi=1..N (Ai – A ) dθ*(Xi) ≥ - c ● Klassifizierung fθ(X) → 1 gdw. dθ*(X) ≥ 0 Ŷ=1 fθ(X) → 0 gdw. dθ*(X) < 0 ● Fairness-Problem falls X mit A korreliert Zafar, M. B., Valera, I., Rogriguez, M. G., & Gummadi, K. P. (2017, April). Fairness constraints: Mechanisms for fair classification. In Artificial Intelligence and Statistics (pp. 962-970). PMLR. 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 17/25 GPT-3 Source: https://www.geeksforgeeks.org/biased-gpt-3/ Source: https://onezero.medium.com/for-some-reason-im-covered-in- blood-gpt-3-contains-disturbing-bias-against-muslims-693d275552bf Source: https://www.technologyreview.com/2020/07/20/1005454/ openai-machine-learning-language-generator-gpt-3-nlp/ 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 18/25 Bias in (GloVe) Word Embeddings ● Vokabelanzal: V ● Matrix X ∈ℝVxV – Mit Xij gewichteter Anzahl wie oft Wort j im Kontext von Wort i auftaucht ● Word-Embedding Association Test (WEAT) ● 2 Mengen Zielwörter – Programmierer, Ingenieur, ... – Krankenschwester, Lehrer, ... ● 2 Mengen Attributwörter – Mann, männlich, Junge, Bruder, ... – Frau, weiblich, Mädchen, Schwester, ... Caliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183-186. 22.02.21 Habilitationskolloquium Fairness im Maschinellen Lernen Dr. Sebastian Pape 19/25 Word Embedding – De-Bias (Pre-Processing) ● Berechnung Bias auf ganzem Korpus ● Alternative: – Berechnung für Korpus ohne – Neue Texte hinzufügen Dokument Di – “Mary umarmt ihren Bruder Tom” → Differential Bias für Dokument Di →→“NAME-1 umarmt seine Schwester NAME-2.” – Approximation zur Effizienzsteigerung – Komplizierter in anderen Sprachen ● Geschlechterspezifische Adjektive, Nomen, ... Brunet, M. E., Alkalay-Houlihan, C., Anderson, A.,

View Full Text

Details

  • File Type
    pdf
  • Upload Time
    -
  • Content Languages
    English
  • Upload User
    Anonymous/Not logged-in
  • File Pages
    25 Page
  • File Size
    -

Download

Channel Download Status
Express Download Enable

Copyright

We respect the copyrights and intellectual property rights of all users. All uploaded documents are either original works of the uploader or authorized works of the rightful owners.

  • Not to be reproduced or distributed without explicit permission.
  • Not used for commercial purposes outside of approved use cases.
  • Not used to infringe on the rights of the original creators.
  • If you believe any content infringes your copyright, please contact us immediately.

Support

For help with questions, suggestions, or problems, please contact us