principes de responsabilité selon la CNDP
D’emblée, Omar Seghrouchni rappelle un principe fondamental souvent mal compris : « La CNDP ne protège pas les données interpersonnelles en elles-mêmes, elle protège l’être humain à l’égard des traitements qui utilisent ces données » . Cette distinction est essentielle dans un environnement numérique où les données constituent la matière première des algorithmes, en particulier ceux de l’intelligence artificielle.
L’enjeu n’est donc pas technologique, mais profondément sociétal. Les traitements automatisés, qu’ils reposent sur des systèmes d’IA ou sur des mécanismes plus classiques, doivent rester alignés sur le respect de la dignité humaine. À ce titre, l’IA n’est qu’un exemple, certes emblématique, d’un traitement particulièrement sensible en raison de sa capacité à produire des décisions, des analyses et des recommandations à grande échelle.
IA et données personnelles : une analogie avec le code de la route
Pour illustrer les risques liés à un usage non encadré de la technologie, le président de la CNDP utilise une métaphore parlante : « Ce n’est pas parce qu’une voiture peut rouler à 300 km/h qu’on va le faire devant un hôpital ou une école » . De la même manière, la puissance des outils numériques impose un cadre normatif clair, comparable à un « code de la route » numérique, fruit d’un consensus sociétal.
Lire aussi: AI made in Morocco : l’intelligence artificielle au cœur de la stratégie numérique du Maroc
Ce cadre doit garantir la sécurité des individus, dans un contexte où les données personnelles sont devenues des ressources stratégiques, au cœur d’une nouvelle économie de la donnée et de défis croissants de souveraineté, tant pour l’État que pour la société.
Parallèlement, Omar Seghrouchni inscrit ces mutations dans une perspective historique plus large. Selon lui, le monde a basculé dans un nouveau paradigme civilisationnel articulé autour de trois dynamiques : compétitivité, contestation et affrontement. Dans ce contexte, les données personnelles occupent une place centrale, devenant un véritable enjeu de gouvernance à dimension géopolitique.
Les conflits ne se limitent plus aux champs militaires traditionnels. Ils s’étendent désormais aux guerres électroniques, informationnelles et algorithmiques, où données et systèmes d’IA peuvent être instrumentalisés à des fins politiques, économiques ou idéologiques.
IA générative : biais, hallucinations et subjectivité politique
L’exposé met en évidence les limites structurelles des systèmes d’IA générative à travers plusieurs exemples concrets. Selon le moteur utilisé et son origine, une même question peut produire des réponses radicalement différentes, parfois biaisées, parfois factuellement incorrectes. Omar Seghrouchni souligne que certains résultats sont « portés politiquement » , reflétant des visions géopolitiques spécifiques plutôt qu’une objectivité universelle.
Lire aussi: « AI Made in Morocco » : le Maroc pose les bases de sa souveraineté technologique
Ces dérives, qualifiées d’ « hallucinations » , trouvent leur origine à deux niveaux : celui des données, lorsqu’elles sont inexactes ou biaisées, et celui des traitements, lorsque les mécanismes d’apprentissage et d’inférence produisent des résultats inadéquats. D’où l’alerte contre un usage prématuré ou non maîtrisé de l’IA, en particulier dans des contextes sensibles.
Ainsi, les conséquences de ces biais ne sont pas théoriques. Elles peuvent toucher directement le citoyen, l’économie, la société et l’État. Par exemple, des décisions automatisées peuvent conditionner l’octroi d’un crédit, l’accès à une subvention ou l’admission dans un établissement, avec des effets potentiellement discriminatoires.
Face à ces risques, Omar Seghrouchni souligne l’importance de disposer de compétences spécialisées pour identifier, évaluer et corriger les biais algorithmiques. Le domaine de l’IA et de la protection des données est vaste et multidisciplinaire, et ne peut être appréhendé par une simple lecture ou une approche superficielle.
Innover vite, mais avec des règles
Par ailleurs, la convention mentionnée dans l’exposé s’inscrit pleinement dans cette logique de co-construction institutionnelle, visant à promouvoir une IA responsable, fondée sur des principes essentiels : loyauté, intégrité, transparence et responsabilité. Elle impose également des exigences strictes sur les données, notamment la légitimité de leur collecte et la proportionnalité de leur utilisation.
Cette transformation s’accompagne de l’émergence de nouveaux métiers, tels que les responsables de la protection des données ou les experts en éthique de l’IA, reflétant un besoin croissant de compétences adaptées à cette nouvelle ère numérique.
Contrairement à une approche technophobe, le message de la CNDP est clair : l’IA doit être développée rapidement et à grande échelle, mais dans un cadre régulé. « On ne dit pas de ne pas monter dans la voiture, on dit de respecter le code de la route » , résume Omar Seghrouchni. La régulation doit suivre le rythme des usages technologiques et s’aligner sur les standards internationaux pour renforcer l’intégration du Royaume dans la chaîne de valeur mondiale.
Source de l’article : Lebrief



Laisser un commentaire