AI and Machine Learning Algorithms have seamlessly integrated into our modern lives. They control our access to information and the way that we allocate resources. While these technologies hold the capacity to do tremendous good for humans, they can also exacerbate societal inequities and existing biases. Vivek will be dive into the ML Lifecycle and discuss how biases can seep into the development process at each step. Along the way, he will also share ways to mitigate these risks, with concrete examples of how your organisation can do this in practice when building your data products.
이 과정은 참가자가 다음 내용을 익히도록 설계되었습니다:
Identify bias risks across the ML lifecycle—from data collection to deployment.
Apply practical techniques to reduce bias, including better sampling, fairness checks, and post‑deployment monitoring.
Select and interpret key fairness metrics to balance accuracy and equity.
Implement simple governance measures such as checklists, model cards, and review gates.
Create an action plan to manage bias in an upcoming data product.
*이 과정에 등록하면 당사가 이 과정에 관한 알림을 이메일로 보낼 수 있음에 동의하는 것입니다. 또한 당사의 개인정보처리방침에 따라 다른 과정에 대해서도 안내해 드립니다. 받은편지함을 존중하며, 알림은 언제든지 수신 거부할 수 있습니다. 과정 자료는 등록일로부터 12개월 동안 제공되므로, 12개월이 지나기 전에 필요한 자료에 접근하시기 바랍니다. 외부 과정에 등록하기 전에 가격을 확인하고 제공업체의 이용 약관을 검토하십시오. 다음은 주요 이용 약관의 요약이며, 전체 내용은 여기에서 확인할 수 있습니다. 디지털 학습 프로그램은 Infoxchange와 후원자들의 지원으로 운영됩니다. 지금 기부하여 이 프로그램을 확대하고 비영리 부문에 더 많은 유용한 자료를 제공할 수 있도록 도와주세요.
Vivek Katial
Executive Director / Co-founder
Good Data Institute
Vivek is Executive Director and Co-founder at Good Data Institute. He is passionate about building data products that create positive change. GDI helps charities build data capabilities, supporting over 70 organisations on more than 80 projects globally. In his spare time, Vivek loves to jam on data science, ML and ethics. He's recently spoken at YOW!, PyCon, LAST, and Tech 4 Social Justice, and Vivek also holds a PhD in Optimisation via Quantum Computing.