Le besoin croissant d'une gouvernanceIA
Teresa Wingfield
14 août 2023

Il n'y paraît peut-être pas, mais l'intelligence artificielle (IA) existe depuis longtemps. Le premier programme d'IA réussi a été écrit en 1951 par Christopher Strachey, qui est ensuite devenu directeur du groupe de recherche sur la programmation à l'université d'Oxford.
ChatGPT est un chatbot qui utilise l'IA pour effectuer diverses tâches, notamment engager une conversation, générer du texte et écrire du code. Le chatbot comptait plus de 100 millions d'utilisateurs actifs en janvier 2023, deux mois seulement après son lancement, ce qui en fait l'application grand public à la croissance la plus rapide de l'histoire. Alors que l'IA ouverte devient de plus en plus accessible au plus grand nombre, les applications non éthiques de l'IA suscitent de plus en plus d'inquiétudes.
La nécessité d'une gouvernanceIA
L'objectif de la gouvernance 'IA est d'aborder diverses questions relatives à l'utilisation éthique de l'IA, notamment la transparence, la partialité, la responsabilité en matière de protection de la vie privée et la sécurité. L'objectif est d'utiliser l'IA de manière à maximiser les bénéfices tout en minimisant les dommages et l'injustice sociale. La gouvernance 'IA jouera également un rôle essentiel en aidant les organisations à se conformer aux réglementations et aux lois. Voici un résumé de ce à quoi il faut s'attendre aux États-Unis, en Europe et au Canada.
Bien qu'il n'existe pas de législation fédérale globale sur l'IA aux États-Unis, les lois municipales et étatiques se concentrent sur la manière dont les systèmes d'IA traitent les données à caractère personnel. Par exemple, les employeurs de la ville de New York ne peuvent pas utiliser d'outils automatisés de décision d'embauche reposant sur l'IA pour présélectionner les candidats à l'emploi, à moins que ces outils ne fassent l'objet d'un audit pour vérifier qu'ils ne sont pas biaisés. Les entreprises doivent également informer les candidats si un outil est utilisé dans le processus de décision d'embauche. Le Colorado exige désormais des compagnies d'assurance qu'elles prouvent que leurs algorithmes d'IA et leurs modèles prédictifs n'entraînent pas de discrimination injuste dans le cadre de la souscription automatisée. La Chambre de commerce des États-Unis propose un suivi de la législation sur l'intelligence artificielle, État par État.
En Europe, le Règlement général sur la protection des données (RGPD) prévoit que les organisations ne doivent pas utiliser de systèmes algorithmiques pour prendre des décisions importantes ayant un impact sur les droits légaux sans supervision humaine et que les individus ont droit à des informations significatives sur la logique et les utilisations des systèmes algorithmiques. L'Union européenne a proposé une loi sur l'intelligence artificielle (AIA) le 21 avril 2021. La proposition a été adoptée en 2023 et crée trois catégories de systèmes d'IA - risque limité, risque élevé et risque inacceptable - et fixe des exigences différentes pour les systèmes d'IA en fonction de la catégorie de risque à laquelle ils appartiennent.
Au Canada, le projet de loi sur l'intelligence artificielle et les données (AIDA) vise à garantir que les systèmes d'IA sont sûrs et non discriminatoires. Cette loi rendrait les entreprises responsables de la manière dont elles développent et utilisent l'IA.
Ce que votre stratégie de gouvernance IA devrait couvrir
De plus en plus, les clients feront pression sur votre organisation pour qu'elle démontre qu'elle utilise l'IA de manière responsable. Vos efforts devront s'intensifier et s'étoffer pour tenir compte des réglementations en matière d'IA qui sont appelées à se développer dans un avenir assez proche. Il est judicieux de se préparer dès maintenant. Voici quelques étapes pour vous aider à vous préparer.
- Attribuer la responsabilité de la gouvernance'IA. Il peut s'agir de votre responsable de la protection de la vie privée ou d'un responsable de la gouvernance l'IA.
- Comprendre l'utilisation de l'IA dans l'ensemble de votre organisation, y compris les solutions tierces.
- Évaluez l'impact de l'utilisation de l'IA par votre organisation sur l'humanité, notamment en matière d'emploi, de protection de la vie privée, de racisme et de bien d'autres sujets.
- Élaborer des cas d'utilisation interdits.
- Élaborer des codes de conduite et des lignes directrices éthiques pour les ingénieurs, les scientifiques et les analystes de données, ainsi que pour les travailleurs de première ligne.
- Assurez-vous que votre entreprise respecte les réglementations en matière d'IA partout où elle exerce ses activités.
- Auditer les algorithmes et les modèles d'IA pour détecter les préjugés, en particulier lorsqu'ils sont utilisés dans des domaines susceptibles d'entraîner des inégalités raciales et économiques.
- Créer des indicateurs clés de performance (ICP) pour mesurer le succès, en se concentrant sur les mesures qui comptent pour les préjugés, la discrimination, l'équité et l'explicabilité.
- Contrôler en permanence les progrès accomplis et prendre les mesures correctives qui s'imposent.
À propos d'Actian
Les clients font confiance à Actian pour leurs besoins en matière d'IA parce que nous offrons plus qu'une simple plateforme. Nous aidons les organisations à prendre des décisions sûres et fondées sur des données pour leurs besoins commerciaux essentiels, tout en accélérant la croissance de leur entreprise. En utilisant la plateforme de données Actianles entreprises peuvent facilement connecter, gérer et analyser leurs données.
S'abonner au blog d'Actian
Abonnez-vous au blogue d'Actian pour recevoir des renseignements sur les données directement à vous.
- Restez informé - Recevez les dernières informations sur l'analyse des données directement dans votre boîte de réception.
- Ne manquez jamais un article - Vous recevrez des mises à jour automatiques par courrier électronique pour vous avertir de la publication de nouveaux articles.
- Tout dépend de vous - Modifiez vos préférences de livraison en fonction de vos besoins.