Over the years, a growing chorus of experts have argued that the impact of artificial intelligence is repeating the patterns of colonial history. Here in South Africa, where colonial legacies abound, the unfettered deployment of AI surveillance offers just one case study in how a technology that promised to bring societies into the future is threatening to send them back to the past.
Valorisation des données
Dans le cadre de son processus d’analyse, Téléfilm demande aux membres du personnel clé de répondre à un questionnaire d’auto-identification qui permettra à Téléfilm de mieux connaître les membres de sa communauté et leurs projets.
Through rigorous, data-based analysis, researchers and analysts can add to our understanding of societal shortcomings and point toward evidence-based solutions. But carelessly collecting and communicating data can lead to analyses and visualizations that have an outsized capacity to mislead, misrepresent, and harm communities already experiencing inequity and discrimination.
A variety of techniques that data visualisation producers should consider when creating visuals with this DEI approach. These issues are especially important in light of the recent discussions around race in the United States and around the world. Everyone working with data that includes information about race, ethnicity, gender, country of origin and more needs to be more aware of these issues and how to apply a DEI lens to their work.
Ce n’est un secret pour personne, la survie des émissions dépend de leurs cotes d’écoute. Toutefois, les Canadiennes et Canadiens sont de plus en plus nombreux à penser qu’il faudrait revoir la façon de colliger le nombre de téléspectateurs, mais aussi faire un suivi des productions pour assurer une réelle équité.
Reviewing and improving how we collect demographic data is about more than being politically correct or asking questions in the “right” way. How we construct applications, surveys and evaluations reflects the values of our organizations. These inquiries can either unintentionally perpetuate bias and harmful stereotypes or strive to promote inclusion and equity.
The Everyone Project is being used by the Australian film and television industry as a simple but comprehensive way of measuring and reporting on its diversity. This initiative is led by the Screen Diversity and Inclusion Network (SDIN) – a group of the major Australian broadcasters, screen funding agencies and trade organisations.
Survey and reporting tool to measure and benchmark diversity in the Australian film and television industry.
The Everyone Project is an easy-to-use web app that invites people to self-identify on a set of characteristics around the diversity of the talent and crews working in their current projects.
Bon nombre de gens pensent que la collecte et l’analyse de données qui identifient des personnes au motif de la race, d’un handicap, de l’orientation sexuelle ou d’autres motifs visés par le Code des droits de la personne[1] de l’Ontario (le « Code ») ne sont pas permis. La collecte de données fondée sur les motifs visés par le Code est autorisée et est conforme au cadre législatif en matière de droits de la personne du Canada, y compris le Code, la Loi canadienne sur les droits de la personne[2], la Loi sur l’équité en matière d’emploi (Canada)[3] et le paragraphe 15 (2) de la Charte canadienne des droits et libertés[4]. La Commission ontarienne des droits de la personne (la CODP) a conclu que la collecte de données pouvait parfois être très utile pour créer des stratégies musclées en matière de droits de la personne et de ressources humaines pour des organisations des secteurs public, privé et à but non lucratif.