La próxima asociación de IA de Microsoft quiere que la IA no dañe a las personas
Hace una semana, Microsoft anunció Llama 2 , su asociación de IA con Meta, en Microsoft Inspire 2023. Llama 2 es un modelo de lenguaje grande de código abierto que puede usar para construir y entrenar su propia IA. También se rumorea que este LLM es la primera pista para lograr AGI , que es, en última instancia, uno de los objetivos centrales de AI.
Bueno, en una semana desde el anuncio, han pasado muchas cosas. También hay rumores de que OpenAI, la compañía detrás de ChatGPT, está lanzando su propio LLM de código abierto, cuyo nombre en código es G3PO. Todavía no hay una fecha de lanzamiento, pero sucederá en 2023 o en 2024.
Y en un giro de los acontecimientos, parece que Microsoft se ha asociado con Anthropic, Google y Open AI en el Frontier Model Forum. La asociación es un organismo de la industria centrado en garantizar el desarrollo seguro y responsable de los modelos de IA de frontera, según el comunicado de prensa .
Hoy, Anthropic, Google, Microsoft y OpenAI anuncian la formación del Frontier Model Forum, un nuevo organismo de la industria centrado en garantizar el desarrollo seguro y responsable de los modelos de IA de frontera. El Frontier Model Forum se basará en la experiencia técnica y operativa de sus empresas miembro para beneficiar a todo el ecosistema de IA, por ejemplo, mediante el avance de evaluaciones técnicas y puntos de referencia, y el desarrollo de una biblioteca pública de soluciones para respaldar las mejores prácticas y estándares de la industria.
Foro del modelo Frontier
Básicamente, el Frontier Model Forum quiere construir IA que no representen un riesgo para los humanos. Si recuerda, uno de los socios, Anthropic, acaba de lanzar Claude 2 AI , y el modelo es famoso por la forma en que interactúa de manera segura con las personas. Entonces, vamos a tener muchas IA similares a la IA de Claude 2, y probablemente incluso mejores. De cualquier manera, es una excelente noticia cuando se trata de esta industria.
¿Qué hará el Frontier Model Forum cuando se trata de IA?
La asociación ha establecido un conjunto de metas y objetivos centrales, y funcionará de acuerdo con ellos. Ellos son:
- Avanzar en la investigación de seguridad de la IA para promover el desarrollo responsable de modelos de frontera, minimizar los riesgos y permitir evaluaciones independientes y estandarizadas de capacidades y seguridad.
- Identificar las mejores prácticas para el desarrollo e implementación responsable de modelos de frontera, ayudando al público a comprender la naturaleza, las capacidades, las limitaciones y el impacto de la tecnología.
- Colaborar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos sobre riesgos de confianza y seguridad.
- Apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a enfrentar los mayores desafíos de la sociedad , como la mitigación y adaptación al cambio climático, la detección y prevención tempranas del cáncer y la lucha contra las ciberamenazas.
La asociación también está abierta a la colaboración con organizaciones
Si usted es una organización que desarrolla IA modelo de frontera, puede enviar su solicitud para unirse y colaborar con el Foro de modelo de frontera.
Para unirse a la asociación, usted, como organización, debe cumplir con los siguientes criterios:
- Ya desarrolla e implementa modelos fronterizos (como los define el foro).
- La organización puede demostrar un fuerte compromiso con la seguridad modelo de frontera, incluso a través de enfoques técnicos e institucionales.
- Usted, como organización, está dispuesto a contribuir al avance de los esfuerzos del Foro, incluso participando en iniciativas conjuntas y apoyando el desarrollo y el funcionamiento de la iniciativa.
Esto es lo que hará el Foro cuando se trate de IA
El Frontier Model Forum quiere apoyar un proceso de desarrollo de IA seguro y responsable, y se centrará en 3 áreas clave durante 2023:
- Identificación de las mejores prácticas: Promover el intercambio de conocimientos y las mejores prácticas con un enfoque en los estándares de seguridad y las prácticas de seguridad para mitigar una amplia gama de riesgos potenciales.
- Avanzar en la investigación de seguridad de la IA: Apoyar el ecosistema de seguridad de la IA al identificar las preguntas de investigación abiertas más importantes sobre la seguridad de la IA. El foro coordinará la investigación para avanzar en estos esfuerzos en áreas como la solidez de los adversarios, la interpretabilidad mecánica, la supervisión escalable, el acceso a la investigación independiente, los comportamientos emergentes y la detección de anomalías. Inicialmente, habrá un fuerte enfoque en desarrollar y compartir una biblioteca pública de evaluaciones técnicas y puntos de referencia para modelos de IA de frontera.
- Facilitar el intercambio de información entre empresas y gobiernos: establecer mecanismos confiables y seguros para compartir información entre empresas, gobiernos y partes interesadas relevantes con respecto a la seguridad y los riesgos de la IA. El Foro seguirá las mejores prácticas en divulgación responsable de áreas como la ciberseguridad.
En el transcurso de 2023, el foro Frontier Model trabajará en armar una junta, luego construirá una estrategia y establecerá prioridades. Pero la organización ya está buscando colaborar con tantas instituciones como sea posible, privadas o públicas. Esto también incluye sociedades civiles y gobiernos, así como otras instituciones que estén interesadas en la IA.
¿Qué opinas de esta nueva alianza? ¿Estás interesado en unirte? ¿O tiene curiosidad acerca de los modelos de IA de frontera? Háganos saber en la sección de comentarios.
Deja una respuesta