Ce que j’ai compris lors d’un échange au stade de Fès sur la peur de l'IA
- Seny NITIEMA
- 3 janv.
- 3 min de lecture
Lors d’un match de la CAN 2025 au stade de Fès, entre deux actions de jeu et l’effervescence des tribunes, j’ai eu un échange marquant avec un monsieur assis à côté de moi. La discussion a rapidement quitté le terrain du football pour aborder un sujet devenu incontournable : l’intelligence artificielle (IA) et l’utilisation des données personnelles.
Cet échange, simple mais révélateur, m’a fait prendre conscience d’une chose essentielle : la masse a encore besoin d’être sensibilisée à ce qu’est réellement l’IA, à ce qu’elle fait… et surtout à ce qu’elle ne fait pas.

Une perception largement répandue : « l’IA vole nos données »
Pour mon interlocuteur, comme pour beaucoup de personnes aujourd’hui, l’IA est perçue comme une entité autonome qui :
collecte nos données personnelles sans autorisation,
nous observe en permanence,
et décide seule de ce qu’elle en fait.
Cette perception est compréhensible. Nous utilisons quotidiennement des applications, des réseaux sociaux, des moteurs de recherche, parfois sans lire les conditions d’utilisation. Le lien est alors vite fait : “si mes données sont utilisées, c’est forcément l’IA qui les prend”.
Mais la réalité est plus nuancée.
Non, l’IA n’est pas l’agent qui vole vos données
Un point important que j’ai tenu à clarifier durant notre discussion est le suivant : L’IA n’utilise pas directement les données des utilisateurs.
Ce sont les propriétaires des plateformes (entreprises, organisations, services numériques) qui collectent et exploitent les données.
Ces données sont ensuite utilisées pour :
analyser des comportements,
améliorer des services,
concevoir et entraîner des modèles d’IA.
L’IA, en elle-même, n’a ni volonté, ni conscience, ni capacité de décider de collecter vos données. Elle est un outil, un modèle mathématique entraîné sur des données que des humains ont choisies, préparées et encadrées (ou parfois mal encadrées).
En résumé : l’IA n’est pas le voleur, elle est l’outil.
La responsabilité repose sur :
les entreprises,
les cadres juridiques,
et les politiques de gouvernance des données.
L’IA dans notre quotidien : souvent invisible, mais déjà là
Un autre constat issu de cet échange : beaucoup de personnes utilisent l’IA sans le savoir. Elle est déjà présente dans :
les recommandations sur Netflix, YouTube ou Spotify,
les filtres anti-spam des emails,
la navigation GPS et l’optimisation des trajets,
les suggestions de mots sur nos claviers,
les détections de fraude bancaire,
les diagnostics médicaux assistés.
Sensibiliser, c’est aussi montrer que l’IA n’est pas uniquement un robot futuriste ou une menace abstraite, mais une technologie déjà intégrée à notre quotidien.
« L’IA va nous prendre nos emplois » : une crainte légitime
Le sujet le plus sensible de notre discussion fut sans doute celui de l’emploi. Mon interlocuteur exprimait une peur claire :
“L’IA va remplacer l’humain.”
Je comprends parfaitement cette inquiétude. L’histoire des révolutions technologiques montre que chaque avancée majeure transforme le marché du travail.
Mais là encore, il est essentiel de poser la responsabilité au bon endroit.
Ce n’est pas l’IA qui décide de remplacer des emplois.
Ce sont les propriétaires des entreprises et les décideurs qui choisissent comment l’IA est utilisée.
Deux visions s’opposent :
une IA conçue comme outil d’efficacité, d’aide à la décision, d’augmentation des capacités humaines ;
une IA utilisée uniquement comme levier de réduction des coûts, au détriment de l’humain.
L’enjeu n’est donc pas technologique, il est éthique, économique et managérial.
Sensibiliser pour mieux décider collectivement
Cet échange au stade de Fès m’a rappelé une chose essentielle : le débat sur l’IA ne doit pas rester réservé aux experts, ingénieurs ou décideurs politiques.
La sensibilisation doit porter sur :
ce qu’est réellement l’IA,
le rôle des données et de ceux qui les contrôlent,
les droits des utilisateurs,
et les choix de société que nous faisons à travers son usage.
Car au final, l’IA n’est ni bonne ni mauvaise. Elle est le reflet des intentions humaines qui la conçoivent et l’utilisent.
reprendre le contrôle par la compréhension
Plutôt que de craindre aveuglément l’IA, il est urgent de :
comprendre ses mécanismes,
exiger plus de transparence des plateformes,
promouvoir des usages responsables,
et orienter son développement vers un modèle où l’humain reste au centre.
Si une simple discussion dans les tribunes d’un stade peut ouvrir ce débat, alors il est clair que la sensibilisation doit sortir des bureaux et aller à la rencontre des citoyens, là où ils se trouvent.
Parce que l’avenir de l’IA ne se joue pas seulement dans les algorithmes, il se joue dans notre compréhension collective et nos choix de société.








Commentaires