Microsoft enfatiza los principios de IA responsable… después de despedir al equipo de IA ética

Microsoft enfatiza los principios de IA responsable… después de despedir al equipo de IA ética

Microsoft está claramente involucrado en iniciativas de inteligencia artificial (IA), con la compañía invirtiendo toneladas de dinero y esfuerzo en GPT de OpenAI , Bing Chat , GitHub Copilot y todas sus próximas integraciones de IA con los productos de Microsoft 365 . A pesar de este crecimiento explosivo en los productos de IA enfocados en el consumidor, la compañía recientemente despidió a un equipo de ética que fue diseñado para garantizar que los productos de IA responsables lleguen a los clientes. Ahora, en un giro de ironía, Microsoft ha enfatizado sus principios para la IA responsable en una publicación de blog .

Básicamente, Microsoft tiene un conjunto de principios de IA responsable que rigen cómo se deben construir los productos de IA. Los cimientos incluyen garantizar la equidad, la confiabilidad y la seguridad, la privacidad y la seguridad, la inclusión, la transparencia y la rendición de cuentas. La empresa señala que:

Implementar una estrategia de IA responsable es un desafío al que se enfrentan muchas organizaciones. Como resultado, Microsoft ha estandarizado las prácticas de IA responsable y las ha puesto a disposición de otras empresas o profesionales del aprendizaje automático para que las adopten en el diseño, la construcción, las pruebas o la implementación de sus sistemas de IA. Por ejemplo, los clientes o desarrolladores pueden aprovechar la plantilla de evaluación de impacto de IA responsable para ayudar a identificar el uso previsto de los sistemas de IA; integridad de datos, cualquier impacto adverso en personas u organizaciones; y cómo aborda los objetivos de cada uno de los seis principios básicos de IA responsable: equidad, inclusión, seguridad y confiabilidad, responsabilidad y transparencia. Además, esto fomenta una práctica para que los desarrolladores de IA asuman la responsabilidad y puedan brindar transparencia a los usuarios finales sobre lo que hace el sistema de IA; cómo debe usarse; sus limitaciones/restricciones y problemas conocidos. Esto ayuda a los equipos de aprendizaje automático a evaluar su enfoque de ciclo de vida de desarrollo para validar que no están pasando por alto factores que podrían hacer que su solución de IA no se comporte como se esperaba.

Aunque Microsoft dice que tiene equipos de gobierno que se aseguran de que sus propios productos de IA también sigan estos principios, las noticias recientes de Redmond indicaron que la empresa ha despedido a todo su equipo de Ética y Sociedad . Según los informes, este equipo se creó para garantizar que los principios de IA responsable de Microsoft estén estrechamente vinculados al diseño del producto. En ese momento, sin embargo, Microsoft sostuvo que todavía mantiene un departamento activo de la Oficina de IA responsable que crea reglas y principios para regir sus iniciativas de IA y continúa realizando inversiones en el área.

La compañía tampoco dijo claramente por qué se despidió al equipo, pero se citó a un ex empleado diciendo:

La gente miraría los principios que surgen de la oficina de AI responsable y diría: «No sé cómo se aplica esto». Nuestro trabajo era mostrarlos y crear reglas en áreas donde no las había.

Independientemente, Microsoft ha enfatizado que está invirtiendo en herramientas y productos que aseguran que se sigan los principios de IA responsable. Un ejemplo notable es el panel de control de IA responsable que se lanzó en 2021 . Por supuesto, solo el tiempo dirá si estas iniciativas son suficientes para frenar los posibles efectos nocivos de los productos de IA . Recientemente, personalidades tecnológicas notables en general como Steve Wozniak, Evan Sharp y Elon Musk solicitaron a los laboratorios de IA que detuvieran el desarrollo de productos durante al menos seis meses y no se precipitaran sin estar preparados.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *