Microsoft, OpenAI, Google y Anthropic lanzan Frontier Model Forum para una IA responsable

Microsoft, OpenAI, Google y Anthropic lanzan Frontier Model Forum para una IA responsable

La inteligencia artificial generativa se ha convertido en la palabra de moda para la industria tecnológica en 2023. También existe mucha preocupación sobre cómo la IA generativa podría salirse de control. Hoy, cuatro empresas líderes en tecnología de IA se han unido para crear el Frontier Model Forum. El objetivo de este grupo es garantizar el «desarrollo seguro y responsable» de la IA generativa, específicamente para los modelos de IA de frontera.

Este grupo describe los modelos Frontier AI como «modelos de aprendizaje automático a gran escala que superan las capacidades actualmente presentes en los modelos existentes más avanzados y pueden realizar una amplia variedad de tareas».

Los miembros fundadores del grupo son Microsoft, OpenAI, Google y Anthropic. En una publicación de blog de Google que anunció el Frontier Model Forum, el grupo anunció sus objetivos:

  • Avanzar en la investigación de seguridad de la IA para promover el desarrollo responsable de modelos de frontera, minimizar los riesgos y permitir evaluaciones independientes y estandarizadas de capacidades y seguridad.
  • Identificar las mejores prácticas para el desarrollo e implementación responsable de modelos de frontera, ayudando al público a comprender la naturaleza, las capacidades, las limitaciones y el impacto de la tecnología.
  • Colaborar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos sobre riesgos de confianza y seguridad.
  • Apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a enfrentar los mayores desafíos de la sociedad, como la mitigación y adaptación al cambio climático, la detección y prevención tempranas del cáncer y la lucha contra las ciberamenazas.

El nuevo grupo comenzará estableciendo un Consejo Asesor para que pueda comenzar a generar recomendaciones sobre estándares de seguridad para los modelos de IA de frontera, además de trabajar en la investigación de seguridad de IA y compartir información sobre estos esfuerzos con otras empresas y gobiernos.

El mensaje conjunto incluía una cita del presidente de Microsoft, Brad Smith:

Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano. Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que beneficie a toda la humanidad.

El Frontier Model Forum también está abierto a agregar más empresas para unirse a este grupo si también están trabajando en modelos fronterizos de inteligencia artificial y «demuestran un fuerte compromiso con la seguridad del modelo fronterizo, incluso a través de enfoques técnicos e institucionales».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *