Accéder au contenu
logo
An image of a cartoon-style scale that is balancing a set of books on one end and a microchip that says "AI" on the other. The books are heavier than the microchip, suggesting that ethics and safety will play a significant role in the development of AI

Sécurité et éthique dans l'IA : L'approche de Meltwater


Giorgio Orsi

Nov 2, 2023

L'IA transforme notre monde, nous offrant de nouvelles capacités étonnantes telles que la création de contenu automatisé et l’analyse de données, ainsi que des assistants IA personnalisés. Si cette technologie offre des possibilités sans précédent, elle pose également d'importants problèmes de sécurité qu'il convient de résoudre pour garantir son utilisation fiable et équitable.

Chez Meltwater, nous pensons qu'il est essentiel de comprendre et de relever ces défis en matière de sécurité de l'IA pour faire progresser de manière responsable cette technologie transformatrice.

Les principales préoccupations en matière de sécurité de l'IA portent sur la manière de rendre ces systèmes fiables, éthiques et bénéfiques pour tous. En effet, les IA peuvent causer des dommages involontaires, prendre des décisions qui ne sont pas conformes aux valeurs humaines, être utilisés de manière malveillante ou devenir si puissants qu'ils deviennent incontrôlables.

Table des matières

Robustesse

La robustesse de l'IA fait référence à sa capacité à fonctionner de manière cohérente, même dans des conditions changeantes ou inattendues.

Si un modèle d'IA n'est pas robuste, il peut facilement échouer ou fournir des résultats inexacts lorsqu'il est exposé à de nouvelles données ou à des scénarios en dehors des échantillons sur lesquels il a été formé. L'un des aspects essentiels de la sécurité de l'IA consiste donc à créer des modèles robustes capables de maintenir des niveaux de performance élevés dans diverses conditions.

Chez Meltwater, nous abordons la robustesse de l'IA à la fois au niveau de la formation et de l'inférence. De multiples techniques telles que l'entraînement contradictoire, la quantification de l'incertitude et l'apprentissage fédéré sont employées pour améliorer la résilience des systèmes d'IA dans des situations incertaines ou contradictoires.

Alignement

Dans ce contexte, le terme "alignement" fait référence au processus consistant à s'assurer que les objectifs et les décisions des IA sont en phase avec les valeurs humaines, un concept connu sous le nom d'alignement des valeurs.

Une IA mal alignée pourrait prendre des décisions que les humains jugent indésirables ou nuisibles, bien qu'elles soient optimales selon les paramètres d'apprentissage du système. Pour parvenir à une IA sûre, les chercheurs travaillent sur des systèmes qui comprennent et respectent les valeurs humaines tout au long de leur processus de prise de décision, même lorsqu'ils apprennent et évoluent.

La construction d’écosystèmes d'IA alignés sur la valeur nécessite une interaction et un retour d'information continus de la part des humains. Meltwater fait un usage intensif des techniques HITL (Human In The Loop), en incorporant le feedback humain à différentes étapes de nos flux de travail de développement de l'IA, y compris le contrôle en ligne de la performance du modèle.

Des techniques telles que l'apprentissage par renforcement inverse, l'apprentissage coopératif par renforcement inverse et les jeux d'assistance sont adoptées pour apprendre et respecter les valeurs et les préférences humaines. Nous tirons également parti de l'agrégation et de la théorie du choix social pour gérer les conflits de valeurs entre différents humains.

Préjugés et équité

L'un des problèmes majeurs de l'IA est qu'elle peut amplifier les préjugés existants, ce qui conduit à des résultats injustes.

Les biais dans l'IA peuvent résulter de divers facteurs, y compris (mais sans s'y limiter) les données utilisées pour former les systèmes, la conception des algorithmes ou le contexte dans lequel ils sont appliqués. Si une IA est entraîné à partir de données historiques contenant des décisions biaisées, le système pourrait par inadvertance perpétuer ces biais.

C'est le cas, par exemple, de l'IA de sélection d'emploi qui peut favoriser injustement un sexe particulier parce qu'elle a été formée sur la base de décisions d'embauche antérieures qui étaient biaisées. La prise en compte de l'équité implique des efforts délibérés pour minimiser les préjugés dans l'IA, garantissant ainsi un traitement équitable de tous les individus et de tous les groupes.

Meltwater effectue une analyse des biais sur tous nos ensembles de données de formation, à la fois internes et open source, et apprend à tous les Large Langage Model (LLM) à identifier les biais. Nous faisons un usage intensif des tests comportementaux pour identifier les problèmes systémiques dans nos modèles de sentiment, et nous appliquons les paramètres de modération de contenu les plus stricts sur tous les LLM utilisés par nos assistants d'intelligence artificielle. De multiples définitions statistiques et informatiques de l'équité, y compris (mais sans s'y limiter) la parité démographique, l'égalité des chances et l'équité individuelle, sont utilisées pour minimiser l'impact de la partialité de l'IA dans nos produits.

Interprétabilité

La transparence dans l'IA, souvent appelée interprétabilité ou explicabilité, est une considération cruciale en matière de sécurité. Elle implique la capacité de comprendre et d'expliquer comment les IA prennent leurs décisions.

Sans interprétabilité, les recommandations d'IA peuvent ressembler à une boîte noire, ce qui rend difficile la détection, le diagnostic et la correction des erreurs ou des biais. Par conséquent, la promotion de l'interprétabilité dans les IA renforce la responsabilité, améliore la confiance des utilisateurs et favorise une utilisation plus sûre de l'IA. Meltwater adopte des techniques standard, comme LIME et SHAP, pour comprendre les comportements sous-jacents de nos IA et les rendre plus transparents.

Dérive

La dérive de l'IA, ou dérive des concepts, fait référence au changement des modèles de données d'entrée au fil du temps. Ce changement peut entraîner une baisse des performances de l'IA, ce qui a un impact sur la fiabilité et la sécurité de ses prédictions ou de ses recommandations.

La détection et la gestion de la dérive sont essentielles pour maintenir la sécurité et la robustesse des éco-systèmes d'intelligence artificielle dans un monde dynamique. Pour gérer efficacement la dérive, il faut surveiller en permanence les performances du système et mettre à jour le modèle si nécessaire.

Meltwater surveille les distributions des déductions faites par nos IA en temps réel afin de détecter les dérives du modèle et les problèmes émergents de qualité des données.

La voie à suivre pour la sécurité de l'IA

La sécurité de l'IA est un défi à multiples facettes qui requiert l'effort collectif des chercheurs, des développeurs d'IA, des décideurs politiques et de la société dans son ensemble.

En tant qu'entreprise, nous devons contribuer à créer une culture où la sécurité de l'IA est prioritaire. Cela inclut l'établissement de normes de sécurité à l'échelle de l'industrie, la promotion d'une culture d'ouverture et de responsabilité, et un engagement ferme à utiliser l'IA pour augmenter nos capacités d'une manière conforme aux valeurs les plus profondément ancrées de Meltwater.

Cet engagement permanent s'accompagne de responsabilités, et les équipes de Meltwater chargées de l'IA ont établi un ensemble de principes éthiques de Meltwater inspirés de ceux de Google et de l'OCDE. Ces principes constituent la base de la manière dont Meltwater mène la recherche et le développement en matière d'intelligence artificielle, d'apprentissage automatique et de science des données.

  1. Bénéficier à la société chaque fois que des opportunités se présentent, de manière inclusive et durable.
  2. Les biais et les dérives sont des défauts. Ils nuisent à l'entreprise et à nos clients.
  3. Sûreté, respect de la vie privée et sécurité en tant que citoyens de première classe.
  4. Tracez tout et soyez responsable. La transparence est essentielle.
  5. Nous sommes des scientifiques et des ingénieurs ; tout doit être prouvé et testé.
  6. Utilisez des open sources chaque fois que c’est possible, évitez tout le reste par mesure de sécurité.

Meltwater a établi des partenariats et des adhésions pour renforcer son engagement à encourager les pratiques éthiques en matière d'intelligence artificielle.

Nous sommes extrêmement fiers du chemin parcouru par Meltwater pour offrir une IA éthique à ses clients. Nous pensons que Meltwater est prête à continuer à fournir des innovations révolutionnaires pour rationaliser le parcours de l'intelligence artificielle à l'avenir et nous sommes ravis de continuer à jouer un rôle de leader en défendant de manière responsable nos principes dans le développement de l'IA, en encourageant une transparence continue, ce qui conduit à une plus grande confiance parmi les clients.