L’IA s’invite dans tous les aspects de notre vie. Mais à quelle vitesse sommes-nous prêts à l’adopter, et à quelles conditions ? Un rapport publié par l’EPFL AI Center, en collaboration avec l’Université de Genève, restitue à la fois les perceptions d’un échantillon représentatif de la population romande et les recommandations d’une assemblée citoyenne.
Auteur: Mélissa Anchisi
Source: EPFL, Photo : 2026 EPFL AI Center - Nicolas Machado
Une utilisation massive, en dépit de craintes sérieuses en matière de cyberattaques, de deepfake ou de respect de la vie privée. Voici le paradoxe qui ressort d’une assemblée citoyenne sondée sur ses dispositions vis-à-vis de l’intelligence artificielle. L’EPFL AI Center, en collaboration avec le Pôle de recherche en innovations démocratiques de l'Université de Genève et l’association Demoscan, a initié ce processus inédit qui débouche sur la publication de son rapport final en français et allemand. Il contient 20 propositions concrètes pour encadrer et accompagner le déploiement de l’IA. En résumé, « l’IA est un bon esclave, mais un mauvais maître ».
«L’intelligence artificielle est l’une des transformations technologiques les plus marquantes de notre époque. Son développement rapide touche le travail, la santé, l’éducation, la vie privée, la vie démocratique », rappelle Marcel Salathé, codirecteur de l’EPFL AI Center. «Face à l’ampleur de ces enjeux, le rapport rappelle qu’il est essentiel que les citoyennes et citoyens puissent exprimer et contribuer à façonner l’avenir de cette technologie, plutôt que d’en subir les effets.»
Une démarche en deux temps
Ce document est le fruit de deux démarches complémentaires. D’abord, une enquête qui a permis, grâce au soutien de l’Office fédéral de la statistique, de collecter les avis de 734 résidentes et résidents des cantons romands et régions francophones des cantons plurilingues. Le questionnaire portait principalement sur leurs usages et opinions en matière d’intelligence artificielle.
Puis, parmi celles et ceux ayant manifesté leur intérêt, 40 citoyennes et citoyens ont été retenus pour constituer un panel diversifié (canton, âge, niveau de formation, intérêt pour la politique). L’assemblée s’est ensuite réunie deux week-ends durant le mois de novembre pour discuter, débattre et délibérer. Le processus délibératif a été conçu et mené par l’association Demoscan, responsable de la méthodologie et de l’animation, selon un principe central de neutralité destiné à favoriser une discussion informée et équilibrée.
« La démocratie ne se limite pas aux urnes. Une assemblée citoyenne, c’est un dispositif qui transforme une opinion intuitive en jugement réfléchi : on donne du temps, des informations et un cadre neutre pour débattre, puis on produit des propositions argumentées », explique Nenad Stojanović, professeur à l’Université de Genève et co-fondateur de Demoscan.
Une adoption déjà massive, mais des attentes fortes
L’enquête montre que 87% des répondantes et répondants ont déjà utilisé au moins un outil d’IA et que ChatGPT est l’outil le plus répandu (70%). Cette adoption s’accompagne néanmoins d’une demande de règles claires : 90% estiment que les systèmes informatiques devraient toujours préciser lorsque l’on interagit avec une machine, et 70% souhaitent que le développement de l’IA soit strictement encadré par les autorités publiques.
Les principales inquiétudes concernent l’utilisation malveillante (piratage, cyberattaques, 81%) et la difficulté à distinguer le vrai du faux (deepfakes, désinformation,77%), devant le respect de la vie privée (65%) et la menace sur l’emploi (59%). Dans les perceptions, près de 69% considèrent que l’IA constitue une menace sérieuse pour la vie privée et la sécurité des données.
Qui doit piloter la gouvernance de l’IA ?
Un petit tiers des sondés désigne le gouvernement suisse comme acteur prioritaire de la gouvernance de l’IA (31%), mais presque autant répond “ne sait pas” (27%), signalant un besoin de clarification institutionnelle. Dans les priorités politiques, la protection des données personnelles arrive largement en tête (68%), suivie des directives éthiques et de la transparence (41%) et de la prévention d’une IA incontrôlable (40%).
Le rapport vise à nourrir les réflexions académiques, institutionnelles et politiques sur la gouvernance de l’IA, en ancrant le débat dans les attentes et recommandations de la population. Dans le préambule du rapport, les participantes et participants appellent à limiter la prise de décision autonome des systèmes et à préserver la capacité de choix des individus.
«La prochaine étape, je l’espère, pourrait être d’étendre la démarche au niveau suisse, pour que la gouvernance de l’IA s’appuie sur des recommandations citoyennes dans toutes les régions linguistiques», conclut Marcel Salathé.
20 propositions citoyennes autour de 5 enjeux
Au terme de la délibération, les participantes et participants ont formulé 20 propositions structurées en cinq axes :
1. Rôle de l’État : la création d’un Office fédéral de l’IA a été proposé pour assurer le financement pérenne de la recherche.
2. Accès et formation : il est crucial de sensibiliser la population aux risques liés à l’utilisation de l’IA générative et de promouvoir les rencontres sociales pour éviter un monde « tout-IA ».
3. Monde du travail : l’accent a été mis sur l’anticipation des impacts économiques et personnels liés à la perte ou la modification d’un emploi, ainsi que l’aide à la reconversion.
4. Traçabilité : l’utilisation d’un label pourrait permettre d’identifier et de valoriser la création humaine. De plus, la protection des droits d’auteur devrait être renforcée.
5. Pratiques responsables : une législation spécifique ainsi que des outils pédagogiques devraient être mis en place pour sensibiliser à la protection des données et lutter contre les cyberattaques.
Ces articles pourraient également vous intéresser
Mentions légales
Source du texte: Mélissa Anchisi
Source de l'image: 2026 EPFL AI Center - Nicolas Machado
Informations
Autres articles
Veröffentlicht am:

