Microsoft, OpenAI, Google et Anthropic lancent Frontier Model Forum pour une IA responsable

Microsoft, OpenAI, Google et Anthropic lancent Frontier Model Forum pour une IA responsable

L’intelligence artificielle générative est devenue le mot à la mode de l’industrie technologique en 2023. On s’inquiète également beaucoup de la façon dont l’IA générative pourrait devenir incontrôlable. Aujourd’hui, quatre grandes entreprises de technologie de l’IA se sont associées pour créer le Frontier Model Forum. L’objectif de ce groupe est d’assurer un « développement sûr et responsable » de l’IA générative, en particulier pour les modèles d’IA de pointe.

Les modèles Frontier AI sont décrits par ce groupe comme « des modèles d’apprentissage automatique à grande échelle qui dépassent les capacités actuellement présentes dans les modèles existants les plus avancés et peuvent effectuer une grande variété de tâches ».

Les membres fondateurs du groupe sont Microsoft, OpenAI, Google et Anthropic. Dans un article de blog Google annonçant le Frontier Model Forum, le groupe a annoncé ses objectifs :

  • Faire progresser la recherche sur la sécurité de l’IA pour promouvoir le développement responsable de modèles de pointe, minimiser les risques et permettre des évaluations indépendantes et normalisées des capacités et de la sécurité.
  • Identifier les meilleures pratiques pour le développement et le déploiement responsables de modèles de pointe, aider le public à comprendre la nature, les capacités, les limites et l’impact de la technologie.
  • Collaborer avec les décideurs politiques, les universitaires, la société civile et les entreprises pour partager les connaissances sur les risques liés à la confiance et à la sécurité.
  • Soutenir les efforts de développement d’applications qui peuvent aider à relever les plus grands défis de la société, tels que l’atténuation et l’adaptation au changement climatique, la détection et la prévention précoces du cancer et la lutte contre les cybermenaces.

Le nouveau groupe commencera par établir un conseil consultatif afin qu’il puisse commencer à formuler des recommandations sur les normes de sécurité pour les modèles d’IA de pointe, ainsi qu’à travailler sur la recherche sur la sécurité de l’IA et à partager des informations sur ces efforts avec d’autres entreprises et gouvernements.

Le message conjoint comprenait une citation du président de Microsoft, Brad Smith :

Les entreprises qui créent la technologie de l’IA ont la responsabilité de s’assurer qu’elle est sûre, sécurisée et reste sous contrôle humain. Cette initiative est une étape essentielle pour rassembler le secteur de la technologie afin de faire progresser l’IA de manière responsable et de relever les défis afin qu’elle profite à toute l’humanité.

Le Frontier Model Forum est également ouvert à l’ajout d’autres entreprises pour rejoindre ce groupe si elles travaillent également sur des modèles d’IA de pointe et « démontrent un engagement fort envers la sécurité des modèles de pointe, y compris par le biais d’approches techniques et institutionnelles ».

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *