Microsoft, OpenAI, Google und Anthropic starten das Frontier Model Forum für verantwortungsvolle KI
Generative künstliche Intelligenz ist im Jahr 2023 zum Schlagwort der Technologiebranche geworden. Es besteht auch große Sorge darüber, dass generative KI außer Kontrolle geraten könnte. Heute haben sich vier führende KI-Technologieunternehmen zusammengetan, um das Frontier Model Forum zu gründen. Das Ziel dieser Gruppe besteht darin, eine „sichere und verantwortungsvolle Entwicklung“ generativer KI sicherzustellen, insbesondere für Grenz-KI-Modelle.
Frontier-KI-Modelle werden von dieser Gruppe als „groß angelegte Modelle für maschinelles Lernen beschrieben, die die derzeit in den fortschrittlichsten vorhandenen Modellen vorhandenen Fähigkeiten übertreffen und eine Vielzahl von Aufgaben ausführen können.“
Die Gründungsmitglieder der Gruppe sind Microsoft, OpenAI, Google und Anthropic. In einem Google-Blogbeitrag , der das Frontier Model Forum ankündigte, gab die Gruppe ihre Ziele bekannt:
- Förderung der KI-Sicherheitsforschung, um die verantwortungsvolle Entwicklung von Grenzmodellen zu fördern, Risiken zu minimieren und unabhängige, standardisierte Bewertungen von Fähigkeiten und Sicherheit zu ermöglichen.
- Ermittlung bewährter Verfahren für die verantwortungsvolle Entwicklung und Bereitstellung von Grenzmodellen, um der Öffentlichkeit zu helfen, die Natur, Fähigkeiten, Einschränkungen und Auswirkungen der Technologie zu verstehen.
- Zusammenarbeit mit politischen Entscheidungsträgern, Wissenschaftlern, der Zivilgesellschaft und Unternehmen, um Wissen über Vertrauen und Sicherheitsrisiken auszutauschen.
- Unterstützung der Bemühungen zur Entwicklung von Anwendungen, die zur Bewältigung der größten gesellschaftlichen Herausforderungen beitragen können, wie z. B. Eindämmung und Anpassung an den Klimawandel, Früherkennung und Prävention von Krebs sowie die Bekämpfung von Cyber-Bedrohungen.
Die neue Gruppe wird zunächst einen Beirat einrichten, damit sie damit beginnen kann, Empfehlungen zu Sicherheitsstandards für bahnbrechende KI-Modelle auszuarbeiten, an der KI-Sicherheitsforschung zu arbeiten und Informationen über diese Bemühungen mit anderen Unternehmen und Regierungen auszutauschen.
Die gemeinsame Nachricht enthielt ein Zitat von Microsoft-Präsident Brad Smith:
Unternehmen, die KI-Technologie entwickeln, haben die Verantwortung sicherzustellen, dass diese sicher ist und unter menschlicher Kontrolle bleibt. Diese Initiative ist ein wichtiger Schritt, um den Technologiesektor zusammenzubringen, um die KI verantwortungsvoll voranzutreiben und die Herausforderungen so anzugehen, dass sie der gesamten Menschheit zugute kommt.
Das Frontier Model Forum ist auch offen für die Aufnahme weiterer Unternehmen in diese Gruppe, wenn sie ebenfalls an Frontier-KI-Modellen arbeiten und „ein starkes Engagement für die Sicherheit von Frontier-Modellen zeigen, auch durch technische und institutionelle Ansätze“.
Schreibe einen Kommentar