Microsoft met l’accent sur les principes de l’IA responsable… après avoir licencié l’équipe d’IA éthique
Microsoft est clairement impliqué dans les initiatives d’intelligence artificielle (IA), la société investissant des tonnes d’argent et d’efforts dans GPT , Bing Chat , GitHub Copilot d’OpenAI et toutes ses intégrations d’IA à venir avec les produits Microsoft 365 . Malgré cette croissance explosive des produits d’IA axés sur le consommateur, la société a récemment licencié une équipe d’éthique conçue pour garantir que les produits d’IA responsables parviennent aux clients. Maintenant, dans une tournure d’ironie, Microsoft a souligné ses principes d’IA responsable dans un article de blog .
Microsoft a essentiellement un ensemble de principes d’IA responsable qui régissent la manière dont les produits d’IA doivent être créés. Les fondements comprennent la garantie de l’équité, de la fiabilité et de la sécurité, de la confidentialité et de la sécurité, de l’inclusivité, de la transparence et de la responsabilité. La société note que :
La mise en œuvre d’une stratégie d’IA responsable est un défi auquel de nombreuses organisations sont confrontées. En conséquence, Microsoft a normalisé les pratiques d’IA responsable et les a mises à la disposition d’autres entreprises ou professionnels de l’apprentissage automatique pour qu’elles les adoptent lors de la conception, de la construction, des tests ou du déploiement de leurs systèmes d’IA. Par exemple, les clients ou les développeurs peuvent tirer parti du modèle d’évaluation de l’impact de l’IA responsable pour aider à identifier l’utilisation prévue des systèmes d’IA ; l’intégrité des données, tout impact négatif sur les personnes ou les organisations ; et comment il répond aux objectifs de chacun des six principes fondamentaux de l’IA responsable : équité, inclusion, sécurité et fiabilité, responsabilité et transparence. En outre, cela favorise une pratique pour les développeurs d’IA de prendre leurs responsabilités et d’être en mesure de fournir de la transparence aux utilisateurs finaux sur ce que fait le système d’IA ; comment il doit être utilisé ; ses limites/restrictions et les problèmes connus. Cela aide les équipes d’apprentissage automatique à évaluer leur approche du cycle de vie du développement pour valider qu’elles ne négligent pas les facteurs qui pourraient empêcher leur solution d’IA de se comporter comme prévu.
Bien que Microsoft affirme avoir des équipes de gouvernance qui s’assurent que ses propres produits d’IA respectent également ces principes, des nouvelles récentes de Redmond ont indiqué que l’entreprise a licencié toute son équipe Éthique et société . Cette équipe aurait été constituée pour s’assurer que les principes d’IA responsable de Microsoft sont étroitement liés à la conception des produits. À cette époque, cependant, Microsoft a soutenu qu’il maintenait toujours un département actif du Bureau de l’IA responsable qui crée des règles et des principes pour régir ses initiatives d’IA et continue d’investir dans le domaine.
L’entreprise n’a pas non plus clairement expliqué pourquoi l’équipe a été licenciée, mais un ancien employé aurait déclaré :
Les gens regardaient les principes émanant du bureau de l’IA responsable et disaient : « Je ne sais pas comment cela s’applique ». Notre travail était de les montrer et de créer des règles là où il n’y en avait pas.
Quoi qu’il en soit, Microsoft a souligné qu’il investit dans des outils et des produits qui garantissent le respect des principes de l’IA responsable. Un exemple notable est le tableau de bord de l’IA responsable qu’il a lancé en 2021 . Bien entendu, seul le temps nous dira si ces initiatives suffiront à enrayer les potentiels effets nocifs des produits d’IA . Récemment, des personnalités technologiques notables comme Steve Wozniak, Evan Sharp et Elon Musk ont demandé aux laboratoires d’IA de suspendre le développement des produits pendant au moins six mois et de ne pas se précipiter sans préparation.
Laisser un commentaire