Quelles mesures les entreprises et les États doivent-ils prendre pour protéger les utilisateurs ?
L’avancée technologique de l’Intelligence Artificielle amène son lot de problématiques
- Protection des données personnelles du fait de la nature d’« auto-apprentissage » de l’IA, qui pour s’améliorer a besoin de collecter un maximum de données.
- Fuite des données car les datacenters de plus en plus grands, permettant le fonctionnement de l’IA possèdent un nombre important de données qu’il est cependant presque impossible de savoir comment elles sont conservées/sécurisées.
- Danger dans l’apprentissage des jeunes et dans le développement de leurs compétences et de leur créativitédu fait qu’ils se contenteraient d’utiliser l’IA pour générer des textes et du contenu et non plus réfléchir par eux-mêmes.
- Détournement des systèmes de reconnaissance faciale et escroquerie de toutes sortes grâce au Deepfake/Deepvoice.
- Détournement ou sabotage de l’algorithme de fonctionnement et l’architecture d’apprentissage de l’IA à des fins de création d’infox fabriquées de toutes pièces
- Attaques phishing ciblées.
- La détection des vulnérabilités par les cybercriminels grâce à l’analyse de code source.
- Piratage de voitures autonomes ou de drones militaires…
- Problématiques au niveau éthique quant à la fiabilité et la responsabilité de ces technologies,
- Problématiques au niveau de la sûreté des États,
- Problématiques au niveau de la souveraineté des États,
- Problématiques de la cybersécurité des entreprises (et États).
Les entreprises et les États doivent par conséquent prendre des mesures pour protéger les utilisateurs grâce à un usage modéré, raisonné et encadré de l'IA.
Pour cela, il est vital que les entreprises et gouvernements prennent des mesures au plus vite au risque de subir les conséquences de ce prochain bouleversement dans nos activités quotidiennes :
- Comprendre son fonctionnement (connaissance globale) afin de mieux cerner ses effets.
- Mener une analyse stratégique afin d’évaluer ses futurs impacts en réalisant une analyse de risques (comme le fait le programme LaborIA initié par Elisabeth Borne).
- Lancer des campagnes de sensibilisation auprès des populations et des employés car une IA n’est pas tenue de respecter le secret professionnel et conserve toutes les données qui lui sont fournies (DarkReading publie le 7 mars 2023 que plusieurs dizaines de milliers d’employés ont transmis des données d’entreprises au chatbot de OpenAI et sur 1,6 million de postes surveillées, 2.6% des utilisateurs ont dévoilé des infos confidentielles à l’IA).
Un manager d’une entreprise qui utiliserait des informations confidentielles pour générer des PPT à l’aide de l’IA générative, pourrait par cette démarche générer des répercutions conséquentes sur l’entreprise dans le cas d’une attaque visant les serveurs de l’entreprise d’IA dû aux données sauvegardées par l’IA qui plus est, ne sont pas souvent chiffrées (Exemple de GPT-2).
- Promulguer des lois et réglementations afin de mettre en place une régulation adaptée et nécessaire pour contrôler/limiter le périmètre de ces IAs.
Sources
« La réussite du développement de l’IA serait le plus grand événement de l’histoire de l’humanité. Malheureusement, il pourrait aussi être le dernier, à moins que nous n’apprenions à éviter les risques. »
Stephen Hawking, Theoretical Physicist
« L’IA sera extrêmement bénéfique, et l’est déjà, pour le domaine de la cybersécurité. Elle sera également bénéfique pour les criminels. »
Dmitri Alperovitch
« Ce que nous devons tous faire, c’est nous assurer que nous utilisons l’IA au bénéfice de l’humanité, et non à son détriment. »
Tim Cook, CEO of Apple