
L'intelligence artificielle (IA) s'immisce de plus en plus dans tous les domaines de notre vie. La couverture médiatique reflète l'attention accrue portée à la force de transformation de l'IA, mais exprime également des incertitudes quant à son utilisation. Quelle est la position de la population suisse à ce sujet ? Et qu'en est-il de sa confiance dans l'État pour réguler les technologies de l'IA de manière appropriée ?
L'intelligence artificielle (IA) fait désormais partie intégrante de notre quotidien. Grâce à sa capacité à analyser et à générer des données à un rythme effréné, à reconnaître des modèles et à établir des prévisions, l'IA révolutionne des domaines entiers de la vie et des secteurs. La croissance fulgurante de ChatGPT, lancé fin 2022 par Open AI, laisse penser que les applications basées sur l'IA sont entrées dans les mœurs de la société dans son ensemble (Sachse 2023). Parallèlement, le traitement médiatique quasi quotidien de ce thème permet de conclure que la conscience générale du pouvoir de transformation de l'IA, avec ses potentiels et ses risques, a augmenté. Les reportages oscillent entre utopie et dystopie et laissent ainsi entrevoir de grandes incertitudes dans l'utilisation individuelle et sociale des nouvelles technologies. Ces incertitudes se reflètent également dans les résultats du DigitalBarometer 2024.
Attitude face au développement des nouvelles technologies basées sur l'intelligence artificielle (IA)

Plus le niveau d'éducation est élevé, plus l'attitude envers l'IA est positive.
En moyenne, le même nombre de personnes interrogées indiquent une attitude de base positive (35%) et négative (34%) envers les technologies basées sur l'IA. 27% sont neutres vis-à-vis de ces technologies. La Suisse n'est pas la seule à avoir cette attitude diffuse : selon le rapport du Centre allemand pour les risques et les effets de l'IA (KIRA 2023), une image similaire se dessine en Allemagne. Toutefois, la question posée ne permet pas de faire des suppositions sur ce que les gens associent à l'IA.
Il est intéressant de constater que l'attitude de base positive (l'IA est plutôt et clairement approuvée) a tendance à augmenter avec le niveau de formation (voir graphique 3) : Alors que seul un quart des personnes ayant suivi la scolarité obligatoire (24%) ont une attitude positive, cette proportion atteint la moitié (50%) chez les personnes ayant un diplôme universitaire ou d'une haute école spécialisée. La formation joue donc un rôle central dans l'attitude de base envers les technologies basées sur l'IA. Ce lien se retrouve également dans les compétences numériques de base : Chez les personnes disposant de compétences numériques de base, l'attitude de base envers l'IA est plus de deux fois plus souvent positive (41%) que chez les personnes sans compétences de base.
Où l'IA occupe et où elle laisse espérer
La population suisse voit de grandes opportunités en ce qui concerne le développement des technologies IA dans les domaines de l'écologie et de la protection du climat (p. ex. efficacité énergétique et recherche) ainsi que dans le domaine de la gestion d'entreprise (p. ex. augmentation de l'efficacité des processus de travail et nouveaux modèles de travail). Cela indique que la population est en principe ouverte aux technologies innovantes, pour autant que celles-ci contribuent à résoudre des problèmes urgents.
Perception des chances en ce qui concerne les développements dans le domaine de l'intelligence artificielle (IA)

En revanche, le graphique ci-dessous montre que les inquiétudes sont surtout marquées lorsqu'il s'agit de l'influence de l'IA sur notre structure sociale, sociétale et politique. Le plus grand danger perçu par la population suisse est l'influence sur le débat public (cité par 59%), suivi de près par la diminution des contacts sociaux (56%). La surveillance généralisée et les éventuelles pertes d'emploi arrivent en troisième position (52% chacun).
Inquiétudes concernant les développements dans le domaine de l'intelligence artificielle (IA)

Un autre chiffre attire particulièrement l'attention : environ la moitié de la population suisse (49%) perçoit l'IA comme une menace potentielle pour l'humanité dans son ensemble. Un coup d'œil au-delà des frontières nationales le montre : En Allemagne, l'IA qui devient une menace pour l'humanité occupe même la première place sur l'échelle des préoccupations - et a été citée par 59% de toutes les personnes interrogées (KIRA 2023). Comment expliquer et classer cette valeur élevée ? D'une manière générale, il est difficile de prévoir l'évolution future des technologies. Cela vaut également pour les développements rapides dans le domaine de l'IA. Les experts ne sont pas d'accord sur les dangers existentiels que représente l'IA. Cela se reflète dans l'incertitude de la population suisse par rapport à l'IA.
Confiance dans l'Etat pour la régulation adéquate des technologies basées sur l'IA

Dans le contexte de cette insécurité, la confiance dans une réglementation étatique appropriée des technologies de l'IA joue un rôle décisif. Avec l'"AI-Act", l'UE a adopté en mars 2024 la première loi globale au monde sur l'IA. Le Conseil fédéral veut présenter un projet suisse fin 2024 (Le Conseil fédéral 2023). Dans ce contexte, qu'en est-il de la confiance de la population suisse dans le fait que les technologies d'IA soient réglementées de manière adéquate dans notre pays, c'est-à-dire en pesant de manière adéquate les chances et les risques (voir chapitre 6 "Données numériques") ? Le graphique 5 montre que près des trois quarts de la population n'ont pas cette confiance (7%). Ce chiffre est alarmant, d'autant plus que la population fait en principe très confiance au gouvernement suisse (Freitag 2023 et Szvircsev et al. 2024). Une explication possible de cette divergence est que les nouveaux risques sont généralement assortis de plus d'incertitude que les risques connus. A cela s'ajoute le fait que l'influence des technologies d'IA sur notre société augmente rapidement (voir chapitre 3 "Intelligence artificielle"). Les moulins à lente mouture de la législation suisse pourraient avoir du mal à suivre ce rythme - c'est une supposition. Il reste à voir comment la confiance évoluera et dans quelle mesure l'action de l'État aura un impact sur la perception des risques de scénarios extrêmes, dans lesquels les systèmes d'IA prennent par exemple des décisions de vie ou de mort de manière autonome.
Vivre et travailler avec des robots ? Un grand scepticisme au sein de la population
Aujourd'hui, les robots sont déjà utilisés dans une multitude de secteurs et de domaines pour effectuer différentes tâches. Ils sont utilisés dans des centres de distribution pour transporter des marchandises, se chargent d'interventions chirurgicales précises, apportent leur soutien dans le domaine des soins et font également de plus en plus leur entrée dans les foyers. Avec l'autonomie croissante de ces robots, les aspects sociaux occupent de plus en plus le devant de la scène. Comment allons-nous vivre et collaborer avec les robots à l'avenir ? Comment l'autonomie croissante des robots se répercute-t-elle sur soi, sur une équipe ou sur le tissu social en tant que tel ? Quoi qu'il en soit, les innovations technologiques doivent toujours être développées en accord avec nos valeurs sociales et éthiques. Selon le Hype Cycle de Gartner pour l'IA (Gartner 2023), les scénarios dans lesquels nous coopérons de plus en plus avec des robots intelligents sont réalistes d'ici cinq à dix ans. Il est nécessaire aujourd'hui de réfléchir à la manière dont la cohabitation entre les hommes et les robots peut être organisée en tenant compte des valeurs sociales et éthiques. Afin de mesurer un premier état d'esprit, nous avons donc demandé dans le DigitalBarometer 2024 des scénarios impliquant une telle coopération entre les hommes et les robots dans le contexte professionnel et privé. Quelles inquiétudes ces scénarios suscitent-ils auprès de la population suisse ? Quelles chances et quels espoirs leur sont associés ? Le DigitalBarometer 2024 confirme une attitude profondément sceptique de la population suisse : indépendamment du contexte (privé ou professionnel), 67% des personnes associent des sentiments négatifs et seulement 26% des sentiments positifs aux scénarios d'avenir respectifs.
Incertitude quant aux scénarios d'avenir attendus
Outre les sentiments négatifs, les Suisses ne peuvent pas vraiment s'imaginer que les scénarios sont réalistes. Ainsi, seule la moitié de la population suisse peut se représenter concrètement les scénarios d'avenir, l'autre moitié ne peut que mal ou pas du tout évaluer si les scénarios mentionnés seront réalistes dans les cinq à dix prochaines années. Les personnes interrogées considèrent la collaboration avec des robots dans le cadre du travail quotidien comme légèrement plus réaliste que dans le contexte privé. Étonnamment, les jeunes estiment que la probabilité des deux scénarios pour les cinq à dix prochaines années est moins réaliste que celle des groupes d'âge plus âgés. Seuls 41% des 16-25 ans estiment que les scénarios sont (plutôt) réalistes. Chez les 65-74 ans, ils sont en revanche 54% et même 58% chez les plus de 75 ans. Il s'agira à l'avenir de suivre cette évolution.
Le DigitalBarometer 2024 montre que la population suisse a une relation ambivalente avec l'IA. Les personnes interrogées voient surtout un potentiel dans les domaines de la protection du climat, de l'écologie et de la gestion d'entreprise. Des inquiétudes apparaissent en revanche en ce qui concerne les effets de l'IA sur le tissu social, sociétal et politique. La crainte d'une influence sur le débat public est notamment perçue comme un grand danger. Cela indique que la population est tout à fait consciente des implications possibles des algorithmes sur la formation de l'opinion et le processus démocratique. Il est donc important que les questions de transparence, d'équité et de responsabilité des systèmes d'IA soient abordées de manière compréhensible et publique. Il convient également de promouvoir les offres qui renforcent la formation d'opinion dans l'espace numérique.
La crainte exprimée que l'IA représente une menace potentielle pour l'humanité (49% d'approbation) montre en outre la nécessité d'agir. En effet, la focalisation sur les craintes empêche de voir les potentiels. Des connaissances approfondies sur les opportunités et les possibilités, mais aussi sur les dangers de l'IA peuvent aider à réduire ces craintes. Cela se manifeste également dans l'attitude de base plus positive des personnes ayant une formation supérieure. En outre, la société doit être capable de gérer les nouvelles technologies, de s'adapter et de se développer. Les mesures de régulation et de soutien de l'État, qui minimisent les risques potentiels de l'IA et permettent une utilisation responsable, jouent un rôle important à cet égard. Les entreprises ont également une responsabilité - notamment en termes de transparence et de directives durables.
Les incertitudes face aux scénarios d'avenir possibles pour l'homme et les robots indiquent la complexité de la dynamique sociale et technologique qui accompagne le développement de l'IA et de la robotique. Cela implique un dialogue renforcé sur le rôle de l'IA et des robots et leur impact sur la cohabitation sociale. Tant la population que toutes les parties prenantes concernées doivent être impliquées dans l'élaboration de recommandations et de directives. En outre, des travaux en sciences sociales et des projets pilotes sur le développement technique des robots humanoïdes sont nécessaires.