Videos. Podcasts. Interviews. Presentations.

Podcasts

In this episode Jess and I talk about our emotional rollercoaster as a first-year Ph.D. student coinciding with the Covid pandemic. We share perceptions of pressure, competition, and confusion around entering and being successful in academia, and hear valuable advice from some experienced women economists on the other side. This podcast is for anyone who's in a similar position, or who's considering starting a Ph.D. in economics, and wants some honest opinions and advice.

Wir waren bei StepStone in der HR Snackbar zu Gast. Eigentlich ist klar, dass Recruiting fair ablaufen sollte. Aus vielen Gründen stellt sich die Realität aber häufig anders dar. Diskriminierung im Bewerbungsprozess kommt nicht selten vor - findet aber oft unbewusst statt. Die gute Nachricht: durch den Einsatz von Algorithmen lässt sich die Personalauswahl deutlich fairer gestalten. Welche Chancen und Risiken neue Technologien im Recruiting mit sich bringen und wie Algorithmen den Arbeitsmarkt fairer und diskriminierungsfreier gestalten können diskutiere ich hier mit meinem Kollegen Dr. Philipp Karl Seegers.

Videos

Studitemps Expert Talk (german)

Welche Chancen und Risiken bieten Algorithmen in der Personalauswahl?

FAIR ist ein vom Land NRW gefördertes Projekt mit dem Ziel Diskriminierungsfaktoren im Recruiting mit Hilfe von Algorithmen systematisch zu erkennen und zu beseitigen. Wie das in der Praxis funktioniert, und was genau der FAIR Index ist, war Thema des Expert Talks am 30. Juli 2020.

ZPReconnect, Personal Fair

Philipp und mein Vortrag bei der Zukunft Personal Reconnect in Köln ist auch online verfügbar.

Darin stellen wir das FAIR-Projekt vor und zeigen unter anderem erste Ergebnisse aus der Feldstudie mit Viega GmbH & Co. KG: Auf Basis der Angaben zur Arbeitserfahrung auf Lebensläufen haben wir ein diskriminierungsfreies Scoring entwickelt.

Tackling bias in AI: The FAIR project (english)

The right algorithm as a concrete solution proposal to reduce discrimination in recruiting.

Algorithms open up the opportunity to make personnel selection more objective because unlike humans they are free of associations and feelings towards individual social groups. But: Even AI is not always fair. Algorithms are therefore needed that demonstrably do not discriminate and protect disadvantaged groups in the labor market. This is a prerequisite for people to trust the new technology - because only then can it be put into practice. FAIR has set itself the task of developing and validating this demonstrably fair algorithm.

Case Online Summit: Praxis trifft Forschung (german)

Prädiktive Validität und Fairness: Was ist wichtiger?

Research, Interviews and other presentations

Blog posts and research pieces

  • FAIR Index: Making discrimination in hiring decisions visible. Read about the Index we developed here and find the mathematical appendix here. Click here for the english version of the FAIR index. Transformation starts with data: Diversity is a KPI and it is worth exploring the status quo. If you are interested in our methodology or want to apply it to your company feel free to reach out to me.

  • I wrote an article on the nexus of fairness and prediction in hiring decision for Persoblogger. You can read about it here (german).

Other presentations

  • Invisible Women? Tackling the Gender Data Gap (May, 2021), Gobal Diversity Day, Infineon Technologies AG

  • Aptitute Testing and algorithmic decision making (March, 2021), #RT21, Artificial Intelligence Summit

  • Strong as a woman - My career choices and experiences (Feb, 2021), Alumni society, University of Cologne

  • Empowered Women Empower Women (June, 2020), Diversity Week University of Cologne, ECONtribute Cluster of Excellence

Interviews

  • No equality of opportunity without gender equality? A part of the interview can be found here (german), Jobmensa Talk Studitemps

  • Hier entstehen kluge Köpfe: A part of the interview on bias in artificial intelligence and how to tackle it can be found here (german), Köln Alumni