La Dépêche

L’intérêt public doit guider l’approche du Canada en matière d’IA

La Dépêche

novembre 27, 2025

Partager:

L’intérêt public doit guider l’approche du Canada en matière d’IA

L’intelligence artificielle remodèle notre monde à un rythme qui exige à la fois prudence et rapidité dans la détermination de son utilisation et de sa gestion.

Le déploiement de l’IA comporte à la fois des menaces et des opportunités pour la collecte et la diffusion d’informations factuelles, essentielles à notre démocratie. À ce titre, il est étroitement lié à la liberté de la presse.

Nous avons observé comment l’érosion des modèles économiques des salles de rédaction traditionnelles a compromis la capacité des journalistes à remplir leur rôle essentiel d’informateurs et de gardiens.

Plus récemment, la propagation de la mésinformation et de la désinformation a pollué l’écosystème médiatique et érodé la confiance dans toutes les plateformes médiatiques.

Notre point de vue sur l’IA est motivé par notre conviction profonde que le Canada doit disposer de médias d’information solides et indépendants pour informer notre société et protéger notre économie et notre démocratie.

Nous encourageons le gouvernement à adopter une approche équilibrée qui favorise le développement de l’IA tout en mettant en place des garde-fous contre les abus.

Le gouvernement fédéral doit veiller à ce que le pays reste à la pointe de la technologie de l’IA et de son déploiement.

Nous devons briser l’emprise qu’une poignée de méga-entreprises étrangères, principalement américaines, exercent sur la vie numérique des Canadiens, en particulier sur les plateformes de médias sociaux. Le déploiement de l’IA ne doit pas suivre la même trajectoire de concentration de la propriété qui sert les intérêts des milliardaires étrangers du secteur technologique.

Nous mettons toutefois en garde contre la poursuite d’objectifs de souveraineté en favorisant les fournisseurs nationaux tout en négligeant les intérêts des consommateurs et des créateurs de contenu, notamment les journalistes et les entreprises de presse.

La protection de la vie privée et de la propriété intellectuelle des Canadiens doit être une caractéristique essentielle de toute approche fédérale en matière d’IA. Les grands systèmes de modèles linguistiques qui récupèrent des informations sur les sites web et volent essentiellement du contenu peuvent nuire au maintien d’un écosystème d’information solide.

Les plateformes alimentées par l’IA peuvent accélérer les efforts visant à diffuser la désinformation et à polluer le discours public. Les entreprises d’IA devraient être tenues responsables de l’exactitude de leur contenu et fournir des informations complètes sur leurs sources.

Bien que l’IA comporte des risques, cette technologie offre également d’énormes avantages qui doivent être largement partagés avec la population canadienne afin d’éviter de creuser davantage la fracture numérique.

La plupart des Canadiens sont en situation de privation constante d’information et 2,5 millions de personnes dans ce pays n’ont pratiquement pas accès aux informations locales, selon un récent rapport du Centre canadien de politiques alternatives.

L’IA peut-elle contribuer à combler ces lacunes ? C’est possible. Les grands modèles linguistiques peuvent synthétiser et organiser de vastes quantités de données à l’appui du journalisme.

Le public doit passer avant tout. Des directives éthiques doivent guider chaque déploiement de l’IA dans les salles de rédaction.

La LPC approuve les principes mondiaux sur l’intelligence artificielle de l’Alliance internationale des médias d’information et exhorte le gouvernement à intégrer ces principes dans sa stratégie en matière d’IA.

Ces principes sont les suivants :

  • Les développeurs, les opérateurs et les déployeurs de systèmes d’IA doivent respecter les droits de propriété intellectuelle des créateurs de contenu.
  • Les éditeurs doivent recevoir une rémunération adéquate pour l’utilisation de contenu protégé par le droit d’auteur.
  • Les fournisseurs et les déployeurs de systèmes d’IA doivent garantir la responsabilité de leurs résultats. Les systèmes d’IA présentent des risques pour la concurrence et la confiance du public dans la qualité et l’exactitude du contenu.
  • Les systèmes d’IA doivent être fiables. Les systèmes et modèles d’IA doivent être conçus de manière à promouvoir des sources d’information fiables et dignes de confiance, produites selon les mêmes normes professionnelles que celles qui s’appliquent aux éditeurs et aux entreprises de médias. Les développeurs et les déployeurs d’IA doivent faire tout leur possible pour garantir que le contenu généré par l’IA est exact, correct et complet. Les systèmes d’IA doivent être sûrs et tenir compte des risques liés à la vie privée. La collecte et l’utilisation de données personnelles dans la conception, la formation et l’utilisation des systèmes d’IA doivent être légales et faire l’objet d’une divulgation complète et facile à comprendre pour les utilisateurs.

Ces principes fondamentaux ne peuvent être laissés à la discrétion des acteurs concernés. Il appartient au gouvernement de veiller à ce que l’innovation technologique ne nuise pas aux institutions essentielles et profite au contraire au plus grand nombre de Canadiens.

L’intérêt public doit guider l’approche du Canada en matière d’adoption et de mise en œuvre de l’IA. Une surveillance réglementaire est nécessaire pour atténuer les risques et garantir que les avantages de l’IA soient largement partagés.

(Une version de cet éditorial a été soumise au groupe de travail sur la stratégie en matière d’IA du ministre Evan Solomon.)


Restez informé avec La Dépêche, notre lettre d’information bimensuelle.

*Indique un champ obligatoire

Commanditaires