Le besoin croissant d'une gouvernanceIA
On pourrait ne pas le croire, mais l'intelligence artificielle (IA) existe depuis longtemps. Le tout premier programme d'IA ayant connu le succès a été écrit en 1951 par Christopher Strachey, qui est ensuite devenu directeur du groupe de recherche en programmation à l'université d'Oxford.
ChatGPT est un chatbot qui utilise l'IA pour effectuer diverses tâches, notamment engager une conversation, générer du texte et écrire du code. Le chatbot comptait plus de 100 millions d'utilisateurs actifs en janvier 2023, deux mois seulement après son lancement, ce qui en fait l'application grand public à la croissance la plus rapide de l'histoire. Alors que l'IA ouverte devient de plus en plus accessible au plus grand nombre, les applications non éthiques de l'IA suscitent de plus en plus d'inquiétudes.
La nécessité d'une gouvernanceIA
L'objectif de la gouvernance 'IA est d'aborder diverses questions relatives à l'utilisation éthique de l'IA, notamment la transparence, la partialité, la responsabilité en matière de protection de la vie privée et la sécurité. L'objectif est d'utiliser l'IA de manière à maximiser les bénéfices tout en minimisant les dommages et l'injustice sociale. La gouvernance 'IA jouera également un rôle essentiel en aidant les organisations à se conformer aux réglementations et aux lois. Voici un résumé de ce à quoi il faut s'attendre aux États-Unis, en Europe et au Canada.
Bien qu'il n'existe pas de législation fédérale exhaustive sur l'IA aux États-Unis, les lois municipales et étatiques se concentrent de plus en plus sur la manière dont les systèmes d'IA traitent les données à caractère personnel. Par exemple, à New York, les employeurs ne peuvent pas utiliser d'outils automatisés de prise de décision en matière d'emploi qui s'appuient sur l'IA pour sélectionner les candidats, à moins que ces outils n'aient fait l'objet d'un audit visant à détecter d'éventuels biais. Les entreprises doivent également informer les candidats si un tel outil est utilisé dans le processus de recrutement. Le Colorado exige désormais des compagnies d'assurance qu'elles prouvent que leurs algorithmes d'IA et leurs modèles prédictifs n'entraînent pas de discrimination injuste dans le cadre de la souscription automatisée. La Chambre de commerce des États-Unis propose un outil de suivi de la législation sur l'intelligence artificielle, état par état.
En Europe, le Règlement général sur la protection des données (RGPD) impose aux organisations de ne pas recourir à des systèmes algorithmiques pour prendre des décisions importantes ayant une incidence sur les droits légaux sans supervision humaine, et garantit aux personnes le droit d'obtenir des informations pertinentes sur la logique et les systèmes algorithmiques utilisés. L'Union européenne a proposé la loi sur l'intelligence artificielle (AIA) le 21 avril 2021. La proposition a été adoptée en 2023 et établit trois catégories de systèmes d'IA — risque limité, risque élevé et risque inacceptable — et fixe des exigences différentes pour les systèmes d'IA en fonction de la catégorie de risque à laquelle ils appartiennent.
Au Canada, le projet de loi sur l'intelligence artificielle et les données (AIDA) vise à garantir que les systèmes d'IA sont sûrs et non discriminatoires. Cette loi rendrait les entreprises responsables de la manière dont elles développent et utilisent l'IA.
Ce que votre stratégie de gouvernance IA devrait couvrir
De plus en plus, les clients feront pression sur votre organisation pour qu'elle démontre qu'elle utilise l'IA de manière responsable. Vos efforts devront s'intensifier et s'étoffer pour tenir compte des réglementations en matière d'IA qui sont appelées à se développer dans un avenir assez proche. Il est judicieux de se préparer dès maintenant. Voici quelques étapes pour vous aider à vous préparer.
- Attribuer la responsabilité de la gouvernance'IA. Il peut s'agir de votre responsable de la protection de la vie privée ou d'un responsable de la gouvernance l'IA.
- Comprendre l'utilisation de l'IA dans l'ensemble de votre organisation, y compris les solutions tierces.
- Évaluez l'impact de l'utilisation de l'IA par votre organisation sur l'humanité, notamment en matière d'emploi, de protection de la vie privée, de racisme et de bien d'autres sujets.
- Élaborer des cas d'utilisation interdits.
- Élaborer des codes de conduite et des lignes directrices éthiques pour les ingénieurs, les data scientists et les data analysts, ainsi que pour les travailleurs de première ligne.
- Assurez-vous que votre entreprise respecte les réglementations en matière d'IA partout où elle exerce ses activités.
- Auditer les algorithmes et les modèles d'IA pour détecter les préjugés, en particulier lorsqu'ils sont utilisés dans des domaines susceptibles d'entraîner des inégalités raciales et économiques.
- Créer des indicateurs clés de performance (ICP) pour mesurer le succès, en se concentrant sur les mesures qui comptent pour les préjugés, la discrimination, l'équité et l'explicabilité.
- Contrôler en permanence les progrès accomplis et prendre les mesures correctives qui s'imposent.
À propos d'Actian
Les clients font confiance à Actian pour leurs besoins en matière d'IA parce que nous offrons plus qu'une simple plateforme. Nous aidons les organisations à prendre des décisions sûres et fondées sur des données pour leurs besoins commerciaux essentiels, tout en accélérant la croissance de leur entreprise. L'utilisation de la La plateforme de données Actianles entreprises peuvent facilement connecter, gérer et analyser leurs données.