L’Association pour le progrès des communications (APC), en tant que réseau d’organisations regroupant une grande diversité de membres basés dans le Sud global, joue un rôle déterminant pour la publication de contenus visant à amplifier les voix et perspectives des communautés marginalisées dans le contexte de l’inclusion numérique et des espaces et processus relatifs aux droits numériques et de l’internet.
En tant que réseau de défense des droits humains et du féminisme avec pour mission de favoriser la justice sociale, de genre et environnementale pour toutes les personnes, APC unit ses forces à d’autres mouvements dans le but de défendre une démarche basée sur les droits humains et la justice climatique en matière d’intelligence artificielle (IA). Nous comprenons les risques et impacts négatifs que posent les avancées de ce type de technologies – que ce soit leur impact calamiteux sur l’environnement, leur utilisation de la surveillance ou encore la violation des droits humains.
Nous croyons que le contenu créé par des personnes – qui reflète leur diversité d’expériences, de positionnements et de voix – devrait rester au cœur de notre méthode de production de contenu et de nos politiques éditoriales. Dans le cadre de cette mission et au vu des avancées en cours, APC déclare que nous décourageons l’utilisation de grands modèles de langage (GML ou LLM en anglais) ou de tout autre outil d’intelligence artificielle générative (gen AI) dans la création de contenu sur nos plateformes et nos canaux de communication. Dans la présente déclaration de politiques nous présentons les raisons de cette décision, qui reconnaît également l’importance de trouver un équilibre en la matière et d’encourager une culture de dialogue ouvert. Nous croyons utile de rendre visibles à nos publics les différentes utilisations et motivations derrières l’IA, et d’en débattre au sein de notre communauté pour pouvoir nous baser sur notre savoir collectif et nous assurer que la démarche que nous suivons reste informée sur les évolutions dans ce domaine.
Privilégier la création humaine
Nous avons pu observer une augmentation importante dans l’utilisation d’outils d’IA générative pour produire et analyser des contenus tels que des travaux de recherche, articles, résumés, présentations, traductions, images ou illustrations, entre autres. Nous croyons qu’une telle utilisation se fait au détriment du développement des capacités et de la pensée créative des personnes, qu’elle entrave l’amplification des voix dans toute leur diversité en homogénéisant les manières de faire, les récits et les styles, et enfin, qu’elle se base sur des années de travail de chercheur·es, d’auteur·es, d’activistes, de militant·es et d’artistes sans proposer de compensation financière appropriée ou de reconnaissance adéquate des sources et de l’auteur·e.
Cette situation s’accompagne d’impacts négatifs sur la rémunération, souvent déjà sous-évaluée, des professionnels du contenu-création notamment dans la rédaction, la relecture, l’édition, la traduction ou encore dans le domaine artistique. Il est en outre important de souligner notre manque de confiance dans les procédures de consultation et d’accréditation des sources, et dans les processus de vérification des faits incorporés à ces outils. En ce sens, nous sommes conscients du fait que l’utilisation de ces outils peut amener à utiliser dans ses écrits des sources d’information non crédibles ou factuelles, ce qui va à l’encontre de l’intégrité des informations que nous attendons de la part des auteur·es dans leur production de contenu pour les plateformes d’APC.
Les plateformes d’IA générative risquent non seulement de perpétuer mais d’amplifier les idées reçues dans la société, notamment les idées genrées et racisées, dans les interactions des utilisatrices et utilisateurs tout en renforçant les préjudices et la discrimination. Ces outils sont en effet développés dans des contextes culturels et démographiques spécifiques, et reflètent uniquement leur mode de fonctionnement – leur manière de « raisonner », loin de refléter la diversité de nos communautés dans le monde.
Cet état de fait est encore exacerbé par le comportement des utilisatrices et utilisateurs qui exploitent les capacités de l’IA pour créer du contenu problématique. Ainsi, l’IA a tendance à favoriser certaines données démographiques, notamment les caractéristiques caucasiennes, au cours des processus de production d’images à grande échelle. Ce phénomène, connu sous le nom de colorisme, associé à l’âgisme, souligne les tendances gênantes des algorithmes de l’IA à renforcer des stéréotypes préjudiciables.
Conformément à la vision, la mission, les valeurs et la politique éditoriale d’APC – et notant que la justice environnementale est un des piliers de notre plan stratégique en vigueur – il est fortement déconseillé au personnel, aux contractants et aux contributeur·rices de produire du contenu destiné à être publié sur les canaux de communication d’APC – y compris des articles, des billets pour des blogues, des traductions, des vidéos, des podcasts ou des illustrations – à l’aide de GML ou de tout autre outil d’IA générative.
En tant que communauté basée sur la diversité et le collectif, APC valorise le contenu issu d’un processus de création humain, qui se nourrit des expériences de vie, des interactions humaines, de l’expertise et de la diversité des peuples et organisations composant le réseau, et qui contribue au renforcement de notre intelligence collective.
De plus, en tant que communauté d’innovateur·rices et praticien·nes des technologies centrées sur la personne, APC croit que l’internet est une ressource publique et par conséquent, s’engage en faveur de la promotion d’une infrastructure alternative et de modèles économiques qui contribuent au bien commun. APC valorise l’initiative et l’appropriation locales, le contenu ouvert, les normes ouvertes et les logiciels libres/de code source ouvert , ainsi que les solutions technologiques appropriées et abordables, des caractéristiques qui ne sont à ce jour pas intégrées dans les outils d’IA.
Reconnaître les contradictions et encourager une culture de transparence
Même si nous reconnaissons les problèmes posés par les outils d’IA, nous admettons que lorsqu’ils sont destinés à la production de contenu, ils peuvent être utilisés de différentes manières, à des échelles différentes et pour différentes raisons. De même que d’autres outils, leur utilisation est susceptible d’avoir des implications à la fois positives et négatives, avec des motivations très variables. Nous savons que ce type d’outils peut s’avérer une alternative concrète et accessible par exemple pour des auteur·es du Sud global qui ont la générosité de faire l’effort d’écrire pour les canaux de communication d’APC dans des langues autres que leur langue maternelle, comme l’anglais ou l’espagnol. Autre exemple, nous avons conscience que certaines personnes en situation de handicap utilisent l’IA pour les assister dans leur travail.
APC ne va pas exiger à ses contributeurs et contributrices de ne pas utiliser les outils d’IA mais, étant donné que nous croyons en l’importance de la transparence, APC estime devoir être informé de la mesure dans laquelle ces outils sont utilisés. Dans ce cas, APC privilégiera la transparence pour nos publics en avertissant clairement le public que le contenu a été généré à l’aide d’outils d’IA et en spécifiant autant que possible la nature et la proportion dans laquelle l’IA a été utilisée.
Nous croyons que le fait de maintenir un dialogue ouvert et d’informer nos publics sur la manière et le moment où des outils d’IA sont utilisés reste le meilleur moyen de trouver un équilibre entre notre propre position sur le sujet et l’autonomie de nos communautés d’adopter une position différente. En outre, une culture de transparence peut nous aider à faire évoluer les politiques présentées ici sur la base du dialogue ouvert, identifier les lacunes amenant à les utiliser et réfléchir à des alternatives pour y remédier.
Nos politiques dans la pratique
APC reconnaît les efforts de ses auteur·es pour imaginer de nouveaux récits sur les différentes réalités des communautés auprès desquelles ils travaillent. Voilà pourquoi nous nous engageons à :
Travailler auprès des auteur·es afin d’amplifier leurs voix et les expériences des communautés dont il est question dans leurs récits, et veiller à ce que les articles publiés respectent les normes d’APC tout au long du processus d’édition.
Offrir une relecture, et ce en ayant toujours en vue que nombre d’auteur·es n’écrivent pas dans leur première langue étant donné que la page web d’APC est disponible uniquement en anglais, en espagnol et en français.
APC se réserve le droit d’évaluer les publications au cas par cas et de décider si publier ou non un contenu entièrement ou en grande partie produit à l’aide d’outils d’IA.
En nous appuyant sur le savoir collectif pour relever les nouveaux défis liés aux technologies émergentes, nous notons que ces politiques devront elles aussi évoluer, et nous les mettrons à jour si nécessaire.
APC comprend que les technologies générées par IA sont là pour rester et seront de plus en plus intégrées à la plupart des développements technologiques. Nous croyons que c’est à travers la collaboration que nous pourrons adopter des stratégies d’atténuation adéquates et exploiter le potentiel de l’IA de manière à promouvoir l’équité et l’inclusion.
Parallèlement à cela, nous continuerons à élargir le débat sur les implications liées à l’utilisation de l’IA et à défendre une approche basée sur les droits humains et la justice éthique et climatique en la matière, à travers une communication stratégique au service des efforts de plaidoyer de notre communauté.
La présente politique est tirée de différentes sources, notamment la vision, la mission et les valeurs d’APC, les politiques éditoriales et les politiques relatives aux logiciels libres d’APC, ainsi que les politiques de Global Voices relatives à l’IA et les orientations de GenderIT.org relatives à l’utilisation de l’IA.