Données numériques

Digitale daten

L'utilisation diversifiée des données est au cœur de la numérisation, comme l'ont montré les précédentes éditions du DigitalBarometer. Dans la présente édition, nous avons demandé à la population de donner son avis sur les technologies de surveillance étatiques. Comment peser les chances et les risques - par exemple en ce qui concerne les libertés ? Quel est le rôle de l'IA ?

Besoin de sécurité et méfiance à l'égard de la régulation étatique de l'IA

Les technologies de surveillance utilisées par l'État dans l'espace public présentent des avantages importants : elles peuvent par exemple réduire la criminalité et augmenter la sécurité publique en détectant les menaces potentielles à un stade précoce ou en aidant les forces de l'ordre à élucider les crimes. Dans le domaine des transports ou de l'urbanisme, elles contribuent à la qualité de vie, à l'efficacité des ressources et à la protection de l'environnement, par exemple en orientant les flux de mobilité. La collecte et l'analyse croissantes de données de surveillance par des organes étatiques soulèvent toutefois aussi des questions, par exemple lorsqu'il s'agit de la protection de la personnalité et de l'abus de données, de la discrimination basée sur l'IA ou de la protection des libertés et de la sphère privée. Comment la population suisse voit-elle les choses ? L'utilisation de technologies de surveillance dans l'espace public est généralement largement approuvée. C'est la surveillance des communications et d'Internet des personnes suspectes qui le montre le plus clairement : Environ trois quarts des personnes interrogées approuvent ces formes de surveillance. L'utilisation de caméras et le suivi GPS sont également approuvés par une majorité, mais dans une moindre mesure. Une raison possible de cette approbation largement répandue pourrait être un besoin général de sécurité accru de la population suisse dans le contexte de la situation politique mondiale incertaine : Selon l'étude de l'EPFZ sur la sécurité (Szvircsev et al. 2024), seule une personne sur cinq (18%) est optimiste à ce sujet. En revanche, une majorité rejette clairement la reconnaissance faciale automatique et la surveillance biométrique. De telles technologies de surveillance, en partie basées sur l'IA, comportent des risques sociaux et sociétaux considérables. C'est pourquoi elles sont strictement réglementées dans la loi européenne sur l'intelligence artificielle, la première loi globale sur l'IA au monde. La Suisse a l'intention de suivre avec des approches réglementaires fin 2024 (voir chapitre 3 "Intelligence artificielle"). Les débats à ce sujet sont en cours.

 

Appui aux technologies de surveillance dans l'espace public

La confiance générale de la population dans une réglementation appropriée des technologies d'IA en Suisse est alarmante, comme le montre le DigitalBarometer 2024 : environ trois quarts de la population n'ont pas confiance en l'État suisse à cet égard (voir chapitre "Intelligence artificielle"). Or, cette confiance ne peut guère être surestimée, surtout dans le contexte des systèmes de surveillance de l'IA liés à la sécurité. Les systèmes basés sur l'IA sont très complexes et souvent peu transparents ("boîte noire") : Les développeurs de tels systèmes ont, dans la mesure où ils ne sont pas orientés vers l'utilité publique, un fort intérêt économique à ne pas divulguer les données avec lesquelles leurs systèmes sont entraînés. Ceci est particulièrement vrai pour les données sensibles telles que les données de mobilité ou de santé. De telles données ne servent pas uniquement des intérêts privés particuliers, elles peuvent également contribuer de manière importante à la résolution de défis sociétaux globaux (par exemple le changement climatique, la congestion du trafic, les crises sanitaires). C'est ce qu'a également montré notre projet de don de données (RisikoDialog 2024). Pour que ces grandes opportunités puissent être exploitées, la confiance est essentielle. Celle-ci est créée par un cadre juridique clair et par la transparence.

La confiance dans la capacité de l'État à réglementer l'IA de manière adéquate est souvent mise à l'épreuve par le développement rapide de la technologie par rapport à l'adaptation plus lente des réglementations.

Anne Scherer, cofondatrice de Delta Labs AG

Conclusion et recommandations

La Suisse est confrontée au défi de réglementer et de mettre en œuvre les technologies de surveillance de l'IA de manière à ce que les droits fondamentaux tels que la protection de la sphère privée, de la personnalité et de la discrimination soient respectés. Parallèlement, il convient de tenir compte du besoin élevé de sécurité de la population. A cela s'ajoute la nécessité de trouver un équilibre entre les différents intérêts économiques et ceux de la société dans son ensemble. Il s'agit ici de répondre aux critiques de la société civile selon lesquelles le gouvernement accorde plus d'importance aux intérêts privés particuliers des grandes entreprises technologiques qu'aux droits fondamentaux (Fichter 2023). Parallèlement, l'État a la responsabilité de n'entraver l'innovation technologique par la réglementation que lorsque cela est nécessaire. Dans une démocratie, cette limite ne peut être déterminée que par un dialogue avec l'ensemble de la société. La population doit absolument être impliquée dans ce processus. Dans l'ensemble du processus, la confiance dans l'État pour réguler de manière adéquate les risques sociaux des systèmes de surveillance basés sur l'IA joue un rôle important. La transparence, l'information et la communication ouverte jouent ici un rôle clé.

Expert:innen-Check : nous avons posé des questions

Entretien avec Anne Scherer, cofondatrice de Delta Labs AG

Trois quarts des Suisses n'ont pas confiance en l'État pour réguler l'IA de manière adéquate. Quelle en est la raison ? Quelles seraient, selon vous, les principales recommandations d'action pour la politique et la société ?

La confiance dans la capacité de l'État à réglementer l'IA de manière adéquate est souvent mise à l'épreuve par le développement rapide de la technologie par rapport à l'adaptation plus lente des réglementations. Pour combler ce fossé, il est essentiel de promouvoir une compréhension plus approfondie de l'IA et de sa réglementation dans la société et d'établir une réglementation transparente et participative. La confiance peut être renforcée par une initiative éducative à grande échelle qui sensibilise à l'IA et à ses risques potentiels, et par une plus grande implication des citoyens dans le processus de réglementation, par exemple par le biais de forums de citoyens. Nous devons également veiller à ce que nos cadres réglementaires soient suffisamment souples pour suivre le rythme des évolutions technologiques, en adoptant des approches réglementaires adaptatives et apprenantes, capables de s'adapter rapidement aux nouveaux défis.

L'enquête montre un fort soutien à l'utilisation des technologies de surveillance, indépendamment de l'éducation, du sexe, de l'âge, etc. Où devraient se situer les limites de la collecte de données pour lutter contre la criminalité au profit de la sécurité et au détriment de la vie privée (d'autant plus que la confiance dans une réglementation étatique correspondante est faible) ?

Le large soutien à l'utilisation des technologies de surveillance reflète un besoin fondamental de sécurité. Cependant, nous sommes confrontés à un défi majeur : garantir la proportionnalité de ces technologies afin d'éviter un scénario "Big Brother". La question cruciale concernant l'utilisation des technologies de surveillance est donc de savoir où placer les limites afin de garantir un équilibre entre sécurité et vie privée. Les lois sur la protection des données offrent un point de départ à cet égard, mais elles doivent être suffisamment souples pour suivre l'évolution rapide des technologies. Des directives éthiques et la promotion d'un débat public actif sont également indispensables pour garantir que toutes les voix soient entendues et que la technologie soit utilisée dans le meilleur intérêt de la société. En fin de compte, notre objectif doit être de fixer les limites des technologies de surveillance de manière à ce qu'elles répondent à nos besoins en matière de sécurité, sans pour autant porter atteinte aux libertés qu'elles sont censées protéger.

Autres sujets qui pourraient t'intéresser

Intelligence artificielle

Intelligence artificielle

Inclusion numérique

Inclusion numérique