Le prochain partenariat de Microsoft sur l’IA veut que l’IA ne nuise pas aux gens
Il y a une semaine, Microsoft a annoncé Llama 2 , son partenariat IA avec Meta, à Microsoft Inspire 2023. Llama 2 est un grand modèle de langage open source, que vous pouvez utiliser pour créer et former votre propre IA. Selon les rumeurs, ce LLM serait également le premier indice permettant d’atteindre l’AGI , qui est, en fin de compte, l’un des objectifs centraux de l’IA.
Eh bien, une semaine après l’annonce, il s’est passé beaucoup de choses. Il y a aussi des rumeurs selon lesquelles OpenAI, la société derrière ChatGPT, publie son propre LLM open source, nommé G3PO. Il n’y a pas encore de date de sortie pour cela, mais cela se produira en 2023 ou en 2024.
Et dans une tournure des événements, il semble que Microsoft s’est associé à Anthropic, Google et Open AI au Frontier Model Forum. Le partenariat est un organisme industriel axé sur le développement sûr et responsable des modèles d’IA de pointe, selon le communiqué de presse .
Aujourd’hui, Anthropic, Google, Microsoft et OpenAI annoncent la création du Frontier Model Forum, un nouvel organisme industriel axé sur le développement sûr et responsable des modèles d’IA de pointe. Le Frontier Model Forum s’appuiera sur l’expertise technique et opérationnelle de ses entreprises membres au profit de l’ensemble de l’écosystème de l’IA, par exemple en faisant progresser les évaluations techniques et les références, et en développant une bibliothèque publique de solutions pour soutenir les meilleures pratiques et normes de l’industrie.
Forum des modèles frontières
Fondamentalement, le Frontier Model Forum veut construire des IA qui ne présentent pas de risque pour les humains. Si vous vous souvenez, l’un des partenaires, Anthropic, vient de sortir Claude 2 AI , et le modèle est réputé pour la façon dont il interagit en toute sécurité avec les gens. Nous allons donc avoir beaucoup d’IA similaires à l’IA de Claude 2, et probablement même meilleures. Quoi qu’il en soit, c’est une excellente nouvelle pour cette industrie.
Que fera le Frontier Model Forum en matière d’IA
Le partenariat a établi un ensemble de buts et d’objectifs fondamentaux, et il fonctionnera en fonction de ceux-ci. Ils sont:
- Faire progresser la recherche sur la sécurité de l’IA pour promouvoir le développement responsable de modèles de pointe, minimiser les risques et permettre des évaluations indépendantes et normalisées des capacités et de la sécurité.
- Identifier les meilleures pratiques pour le développement et le déploiement responsables de modèles de pointe, aider le public à comprendre la nature, les capacités, les limites et l’impact de la technologie.
- Collaborer avec les décideurs politiques, les universitaires, la société civile et les entreprises pour partager les connaissances sur les risques liés à la confiance et à la sécurité.
- Soutenir les efforts de développement d’applications qui peuvent aider à relever les plus grands défis de la société , tels que l’atténuation et l’adaptation au changement climatique, la détection et la prévention précoces du cancer et la lutte contre les cybermenaces.
Le partenariat est également ouvert à la collaboration avec des organisations
Si vous êtes une organisation qui développe l’IA Frontier Model, vous pouvez soumettre votre candidature pour rejoindre et collaborer avec le Frontier Model Forum.
Pour rejoindre le partenariat, vous, en tant qu’organisation, devez répondre aux critères suivants :
- Vous développez et déployez déjà des modèles frontières (tels que définis par le Forum).
- L’organisation est en mesure de démontrer un engagement fort en faveur de la sécurité des modèles frontières, notamment par le biais d’approches techniques et institutionnelles.
- En tant qu’organisation, vous êtes prêt à contribuer à faire avancer les efforts du Forum, notamment en participant à des initiatives conjointes et en soutenant le développement et le fonctionnement de l’initiative.
Voici ce que le Forum fera en matière d’IA
Le Frontier Model Forum souhaite soutenir un processus de développement d’IA sûr et responsable, et il se concentrera sur 3 domaines clés en 2023 :
- Identification des meilleures pratiques : Promouvoir le partage des connaissances et des meilleures pratiques en mettant l’accent sur les normes de sécurité et les pratiques de sécurité pour atténuer un large éventail de risques potentiels.
- Faire progresser la recherche sur la sécurité de l’IA : Soutenez l’écosystème de la sécurité de l’IA en identifiant les questions de recherche ouvertes les plus importantes sur la sécurité de l’IA. Le Forum coordonnera la recherche pour faire progresser ces efforts dans des domaines tels que la robustesse contradictoire, l’interprétabilité mécaniste, la surveillance évolutive, l’accès indépendant à la recherche, les comportements émergents et la détection des anomalies. Dans un premier temps, l’accent sera mis sur le développement et le partage d’une bibliothèque publique d’évaluations techniques et de références pour les modèles d’IA de pointe.
- Faciliter le partage d’informations entre les entreprises et les gouvernements : établir des mécanismes fiables et sécurisés pour le partage d’informations entre les entreprises, les gouvernements et les parties prenantes concernées concernant la sécurité et les risques liés à l’IA. Le Forum suivra les meilleures pratiques en matière de divulgation responsable dans des domaines tels que la cybersécurité.
Au cours de l’année 2023, le forum Frontier Model travaillera à l’assemblage d’un conseil d’administration, puis élaborera une stratégie et établira des priorités. Mais l’organisation cherche déjà à collaborer avec un maximum d’institutions, privées ou publiques. Cela inclut également les sociétés civiles et les gouvernements, ainsi que d’autres institutions qui s’intéressent à l’IA.
Que pensez-vous de ce nouveau partenariat ? Êtes-vous intéressé à nous rejoindre? Ou êtes-vous curieux de connaître les modèles d’IA de pointe ? Faites-nous savoir dans la section commentaires ci-dessous.
Laisser un commentaire